nodejs 的 zlib 模块提供了资源压缩功能。例如在 http 传输过程中常用的 gzip,能大幅度减少网络传输流量,提高速度。本文将从下面几个方面介绍 zlib 模块和相关知识点:
- 文件压缩 / 解压
- HTTP 中的压缩/解压
- 压缩算法:RLE
- 压缩算法:哈夫曼树
文件的压缩/解压
以 gzip 压缩为例,压缩代码如下:
1 2 3 4 5 6
| const zlib = require("zlib"); const fs = require("fs"); const gzip = zlib.createGzip(); const rs = fs.createReadStream("./db.json"); const ws = fs.createWriteStream("./db.json.gz"); rs.pipe(gzip).pipe(ws);
|
如下图所示,4.7Mb 大小的文件被压缩到了 575Kb。
解压刚才压缩后的文件,代码如下:
1 2 3 4 5 6
| const zlib = require("zlib"); const fs = require("fs"); const gunzip = zlib.createGunzip(); const rs = fs.createReadStream("./db.json.gz"); const ws = fs.createWriteStream("./db.json"); rs.pipe(gunzip).pipe(ws);
|
HTTP 中的压缩/解压
在服务器中和客户端的传输过程中,浏览器(客户端)通过 Accept-Encoding 消息头来告诉服务端接受的压缩编码,服务器通过 Content-Encoding 消息头来告诉浏览器(客户端)实际用于编码的算法。
服务器代码示例如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
| const zlib = require("zlib"); const fs = require("fs"); const http = require("http"); const server = http.createServer((req, res) => { const rs = fs.createReadStream("./index.html"); res.setHeader("Vary", "Accept-Encoding"); let acceptEncoding = req.headers["accept-encoding"]; if (!acceptEncoding) { acceptEncoding = ""; } if (/\\bdeflate\\b/.test(acceptEncoding)) { res.writeHead(200, { "Content-Encoding": "deflate" }); rs.pipe(zlib.createDeflate()).pipe(res); } else if (/\\bgzip\\b/.test(acceptEncoding)) { res.writeHead(200, { "Content-Encoding": "gzip" }); rs.pipe(zlib.createGzip()).pipe(res); } else if (/\\bbr\\b/.test(acceptEncoding)) { res.writeHead(200, { "Content-Encoding": "br" }); rs.pipe(zlib.createBrotliCompress()).pipe(res); } else { res.writeHead(200, {}); rs.pipe(res); } }); server.listen(4000);
|
客户端代码就很简单了,识别 Accept-Encoding 字段,并进行解压:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27
| const zlib = require("zlib"); const http = require("http"); const fs = require("fs"); const request = http.get({ host: "localhost", path: "/index.html", port: 4000, headers: { "Accept-Encoding": "br,gzip,deflate" } }); request.on("response", response => { const output = fs.createWriteStream("example.com_index.html"); switch (response.headers["content-encoding"]) { case "br": response.pipe(zlib.createBrotliDecompress()).pipe(output); break; case "gzip": response.pipe(zlib.createGunzip()).pipe(output); break; case "deflate": response.pipe(zlib.createInflate()).pipe(output); break; default: response.pipe(output); break; } });
|
从上面的例子可以看出来,3 种对应的解压/压缩 API:
zlib.createInflate()
和 zlib.createDeflate()
zlib.createGunzip()
和 zlib.createGzip()
zlib.createBrotliDecompress()
和 zlib.createBrotliCompress()
压缩算法:RLE
RLE 全称是 Run Length Encoding, 行程长度编码,也称为游程编码。它的原理是:记录连续重复数据的出现次数。它的公式是:字符 * 出现次数
。
例如原数据是 AAAAACCPPPPPPPPERRPPP
,一共 18 个字节。按照 RLE 的规则,压缩后的结果是:A5C2P8E1R2P3
,一共 12 个字节。压缩比例是:12 / 17 = 70.6%
RLE 的优点是压缩和解压非常快,针对连续出现的多个字符的数据压缩率更高。但对于ABCDE
类似的数据,压缩后数据会更大。
压缩算法:哈夫曼树
哈夫曼树的原理是:出现频率越高的字符,用尽量更少的编码来表示。按照这个原理,以数据ABBCCCDDDD
为例:
child_database
原来的数据是 10 个字节。那么编码后的数据是:1110101110000
,一共 13bit,在计算机中需要 2 个字节来存储。这样的压缩率是:2 / 10 = 20%。
但是仅仅按照这个原理编码后的数据,无法正确还原。以前 4bit 为例,1110
可以理解成:
- 11 + 10
- 1 + 1 + 1 + 0
- 1 + 1 + 10
- …
而哈夫曼树的设计就很巧妙,能正确还原。哈夫曼树的构造过程如下:
无论哪种数据类型(文本文件、图像文件、EXE 文件),都可以采用哈夫曼树进行压缩。
参考链接