首先列出报错信息:需求:解决上一次node js将pdf转为json,文件数量超过30报错的问题
1 | FATAL ERROR: CALL_AND_RETRY_LAST Allocation failed - JavaScript heap out of memory |
出现问题的原因:
- 网上有一种回答是:解析的是一个大的文件,转换为json后,相当于操作一个巨大的对象,所以会报错,但是文件数量小的时候,解析是正常的,所以这种假设可以排除。
- 内存溢出,程序执行所需要的内存超出了系统分配给内存大小
解释:由于node是基于V8引擎,在node中通过javascript使用内存时只能使用部分内存,64位系统下约为1.4GB,32位系统下约为0.7GB,当执行的程序占用系统资源过高,超出了V8对node默认的内存限制大小就会报上图所示错误。
如果是编译项目,V8提供的默认内存大小不够用,可以去修改 –max-old-space-size,但是我目前的需求是处理2000多个pdf文件,解析为json,所以使用的内存大小是不确定的,不能采取这种方案。
我的理解:node js 很多操作都是异步执行的,而异步操作的结果就是不能确保执行完成的时间,所以当多个异步操作同时进行的时候,不能确保执行完成的顺序,但是执行的结果又是相互关联的,所以在执行的时候,会一直占用内存,而不被垃圾回收机制回收,造成内存泄漏。
错误的代码
1 | const PDFParser = require('pdf2json'); |
但是究竟这个异步操作的并发量的上限是多少,不能确定,有一个同学尝试过,读取PDF文件的时候,上限是30,分析以上结果,进行改进,改进之后,每次执行五个异步操作,执行完成之后再继续执行下一个五个异步函数。
测试过,这种方式处理100个文件时没有问题的,对比了两种方式方法,以34个文件为测试用例:
方法 | 文件数量 | 读取时间(s) | CPU | 内存 |
---|---|---|---|---|
方法一 | 34 | 26.817 | 暴涨(14%-42%) | 最大(1591MB) |
方法二 | 34 | 19.374 | (36%)平稳 | 最大(300MB) |
改进后核心代码
1 | ConvertToJSON(path){ |
源码地址,欢迎指正。
参考文档:
- v8引擎详解
- Google V8 引擎 原理详解
- FATAL ERROR: CALL_AND_RETRY_LAST Allocation failed - process out of memory
- nodeJs内存泄漏问题详解
最近读书分享(来源:掘金)
心得:以上是我最近读到的,我认为非常好的文章。关于浏览器内核,这样的文章一直都在读,但是每一次读,理解都是不一样的,有一种书读百遍其义自见的感觉,学的知识越多,再去读以前读过的文章,理解就更深刻,共勉。