大数据量下js性能优化
循环中需要注意的
- 对于大量的循环要用for来进行,它是最快的
- 数组内元素定位,
indexOf() > map() > object()
,扩展,可以重写Array.phptotype.indexOf
- 遍历时的浅拷贝,需要另外创建一个新对象进行属性赋值
filter >> for
- `filter > for in >> for
- 数组去数组重复(new Set、for),数据量小时:set 快,大时for快, 数据体量1w: set,100w: for,1000w: for
- 数组去对象重复(reduce、for),
原文
js处理大型数据崩掉解决方案
js中大量操作dom操作,会导致事件响应缓慢甚至卡死浏览器
- 循环优化
循环体中包含太多的操作和循环的次数过多都会导致循环执行时间过长,并直接导致锁死浏览器。如果循环之后没有其他操作,每次循环只处理一个数值,而且不依赖于上一次循环的结果则可以对循环进行拆解,利用chunk
函数
function chunk(array, process, context) {
setTimeout(
function() {
var item = array.shift();
process.call(context, item);
if (array.length > 0) {
setTimeout(arguments.callee, 100);
}
}), 100
}
原文