<返回更多

聊聊Excel解析:如何处理百万行EXCEL文件?

2023-07-06  京东云开发者  
加入收藏

作者 | 京东云开发者-京东保险 孙昊语

一、引言

Excel 表格在后台管理系统中使用非常广泛,多用来进行批量配置、数据导出工作。在日常开发中,我们也免不了进行 Excel 数据处理。

那么,如何恰当地处理数据量庞大的 Excel 文件,避免内存溢出问题?本文将对比分析业界主流的 Excel 解析技术,并给出解决方案。

如果这是您第一次接触 Excel 解析,建议您从第二章了解本文基础概念;如果您已经对 POI 有所了解,请跳转第三章阅读本文重点内容。

二、基础篇 - POI

说到 Excel 读写,就离不开这个圈子的的老大哥 ——POI。

Apache POI 是一款 Apache 软件基金会用 JAVA 编写的免费开源的跨平台的 Java API,全称 Poor Obfuscation Implementation,“简洁版的模糊实现”。它支持我们用 Java 语言和包括 word、Excel、PowerPoint、Visio 在内的所有 Microsoft office 文档交互,进行数据读写和修改操作。

(1)“糟糕” 的电子表格

在 POI 中,每种文档都有一个与之对应的文档格式,如 97-2003 版本的 Excel 文件(.xls),文档格式为 HSSF——Horrible SpreadSheet Format,意为 “糟糕的电子表格格式”。虽然 Apache 幽默而谦虚地将自己的 API 冠以 “糟糕” 之名,不过这确实是一款全面而强大的 API。

以下是部分 “糟糕” 的 POI 文档格式,包括 Excel、Word 等:

Office 文档 对应 POI 格式
Excel (.xls) HSSF (Horrible SpreadSheet Format)
Word (.doc) HWPF (Horrible Word Processor Format)
Visio (.vsd) HDGF (Horrible DiaGram Format)
PowerPoint(.ppt) HSLF(Horrible Slide Layout Format)
(2)OOXML 简介

微软在 Office 2007 版本推出了基于 XML 的技术规范:Office Open XML,简称 OOXML。不同于老版本的二进制存储,在新规范下,所有 Office 文档都使用了 XML 格式书写,并使用 ZIP 格式进行压缩存储,大大提升了规范性,也提高了压缩率,缩小了文件体积,同时支持向后兼容。简单来说,OOXML 定义了如何用一系列的 XML 文件来表示 Office 文档。

Xlsx 文件的本质是 XML

让我们看看一个采用 OOML 标准的 Xlsx 文件的构成。我们右键点击一个 Xlsx 文件,可以发现它可以被 ZIP 解压工具解压(或直接修改扩展名为.zip 后解压),这说明: Xlsx 文件是用 ZIP 格式压缩的。解压后,可以看到如下目录格式:

打开其中的 “/xl” 目录,这是这个 Excel 的主要结构信息:

其中 workbook.xml 存储了整个 Excel 工作簿的结构,包含了几张 sheet 表单,而每张表单结构存储在 /wooksheets 文件夹中。styles.xml 存放单元格的格式信息,/theme 文件夹存放一些预定义的字体、颜色等数据。为了减少压缩体积,表单中所有的字符数据被统一存放在 sharedStrings.xml 中。经过分析不难发现, Xlsx 文件的主体数据都以 XML 格式书写。

XSSF 格式

为了支持新标准的 Office 文档,POI 也推出了一套兼容 OOXML 标准的 API,称作 poi-ooxml。如 Excel 2007 文件(.xlsx)对应的 POI 文档格式为 XSSF(XML SpreadSheet Format)。

以下是部分 OOXML 文档格式:

Office 文档 对应 POI 格式
Excel (.xlsx) XSSF (XML SpreadSheet Format)
Word (.docx) XWPF (XML Word Processor Format)
Visio (.vsdx) XDGF (XML DiaGram Format)
PowerPoint (.pptx) XSLF (XML Slide Layout Format)
(3)UserModel

在 POI 中为我们提供了两种解析 Excel 的模型, UserModel(用户模型)和 EventModel(事件模型)。两种解析模式都可以处理 Excel 文件,但解析方式、处理效率、内存占用量都不尽相同。最简单和实用的当属 UserModel。

UserModel & DOM 解析

用户模型定义了如下接口:

  1. Workbook - 工作簿,对应一个 Excel 文档。根据版本不同,有 HSSFWorkbook、XSSFWorkbook 等类。
  2. Sheet - 表单,一个 Excel 中的若干个表单,同样有 HSSFSheet、XSSFSheet 等类。
  3. Row - 行,一个表单由若干行组成,同样有 HSSFRow、XSSFRow 等类。
  4. Cell - 单元格,一个行由若干单元格组成,同样有 HSSFCell、XSSFCell 等类。

可以看到,用户模型十分贴合 Excel 用户的习惯,易于理解,就像我们打开一个 Excel 表格一样。同时用户模型提供了丰富的 API,可以支持我们完成和 Excel 中一样的操作,如创建表单、创建行、获取表的行数、获取行的列数、读写单元格的值等。

为什么 UserModel 支持我们进行如此丰富的操作?因为在 UserModel 中,Excel 中的所有 XML 节点都被解析成了一棵 DOM 树,整棵 DOM 树都被加载进内存,因此可以进行方便地对每个 XML 节点进行 随机访问。

UserModel 数据转换

了解了用户模型,我们就可以直接使用其 API 进行各种 Excel 操作。当然,更方便的办法是使用用户模型将一个 Excel 文件转化成我们想要的 Java 数据结构,更好地进行数据处理。

我们很容易想到关系型数据库 —— 因为二者的实质是一样的。类比数据库的数据表,我们的思路就有了:

  1. 将一个 Sheet 看作表头和数据两部分,这二者分别包含表的结构和表的数据。
  2. 对表头(第一行),校验表头信息是否和实体类的定义的属性匹配。
  3. 对数据(剩余行),从上向下遍历每一个 Row,将每一行转化为一个对象,每一列作为该对象的一个属性,从而得到一个对象列表,该列表包含 Excel 中的所有数据。

接下来我们就可以按照我们的需求处理我们的数据了,如果想把操作后的数据写回 Excel,也是一样的逻辑。

使用 UserModel

让我们看看如何使用 UserModel 读取 Excel 文件。此处使用 POI 4.0.0 版本,首先引入 poi 和 poi-ooxml 依赖:

< dependency>

< groupId> org.apache.poi </ groupId>

< artifactId> poi </ artifactId>

< version> 4.0.0 </ version>

</ dependency>

< dependency>

< groupId> org.apache.poi </ groupId>

< artifactId> poi-ooxml </ artifactId>

< version> 4.0.0 </ version>

</ dependency>

我们要读取一个简单的 Sku 信息表,内容如下:

如何将 UserModel 的信息转化为数据列表?

我们可以通过实现反射 + 注解的方式定义表头到数据的映射关系,帮助我们实现 UserModel 到数据对象的转换。实现基本思路是:① 自定义注解,在注解中定义列号,用来标注实体类的每个属性对应在 Excel 表头的第几列。② 在实体类定义中,根据表结构,为每个实体类的属性加上注解。③ 通过反射,获取实体类的每个属性对应在 Excel 的列号,从而到相应的列中取得该属性的值。

以下是简单的实现,首先准备自定义注解 ExcelCol,其中包含列号和表头:

importjava.lang.annotation.ElementType;

importjava.lang.annotation.Retention;

importjava.lang.annotation.RetentionPolicy;

importjava.lang.annotation.Target;

@ Target({ ElementType.FIELD})

@ Retention( RetentionPolicy. RUNTIME)

public @interface ExcelCol {

/**

* 当前列数

*/

intindexdefault0;

/**

* 当前列的表头名称

*/

Stringheaderdefault"";

}

接下来,根据 Sku 字段定义 Sku 对象,并添加注解,列号分别为 0,1,2,并指定表头名称:

importlombok.Data;

importorg.shy.xlsx. annotation.ExcelCol;

@Data

publicclassSku{

@ExcelCol(index = 0, header = "sku")

privateLongid;

@ExcelCol(index = 1, header = "名称")

privateString name;

@ExcelCol(index = 2, header = "价格")

privateDoubleprice;

}

然后,用反射获取表头的每一个 Field,并以列号为索引,存入 Map 中。从 Excel 的第二行开始(第一行是表头),遍历后面的每一行,对每一行的每个属性,根据列号拿到对应 Cell 的值,并为数据对象赋值。根据单元格中值类型的不同,如文本 / 数字等,进行不同的处理。以下为了简化逻辑,只对表头出现的类型进行了处理,其他情况的处理逻辑类似。全部代码如下:

importcom.alibaba.fastjson.JSON;

importorg.apache.commons.lang3.StringUtils;

importorg.apache.poi.ss.usermodel.*;

importorg.apache.poi.xssf.usermodel.XSSFWorkbook;

importorg.shy.domAIn.pojo.Sku;

importorg.shy.xlsx.annotation.ExcelCol;

importjava.io.FileInputStream;

importjava.lang.reflect.Field;

importjava.text.DecimalFormat;

importjava.util.ArrayList;

importjava.util.HashMap;

importjava.util.List;

importjava.util.Map;

publicclassMyUserModel{

publicstaticvoid main( String[] args) throwsException{

List< Sku> skus = parseSkus( "D:sunhaoyu8DocumentsFilesskus.xlsx");

System.out. println( JSON.toJSONString(skus));

}

publicstaticList< Sku> parseSkus( StringfilePath) throwsException{

FileInputStreamin= new FileInputStream(filePath);

Workbookwk = new XSSFWorkbook( in);

Sheetsheet = wk.getSheetAt( 0);

// 转换成的数据列表

List< Sku> skus = new ArrayList<>;

// 获取Sku的注解信息

Map< Integer, Field> fieldMap = new HashMap<>( 16);

for( Fieldfield : Sku. class. getDeclaredFields) {

ExcelColcol = field.getAnnotation( ExcelCol. class);

if( col== null) {

continue;

}

field.setAccessible( true);

fieldMap.put(col.index, field);

}

for(int rowNum = 1; rowNum <= sheet.getLastRowNum; rowNum++) {

Rowr = sheet.getRow(rowNum);

Skusku = new Sku;

for(int cellNum = 0; cellNum < fieldMap.size; cellNum++) {

Cellc= r.getCell(cellNum);

if( c!= null) {

setFieldValue(fieldMap. get(cellNum), getCellValue( c), sku);

}

}

skus.add(sku);

}

returnskus;

}

publicstaticvoid setFieldValue( Fieldfield, Stringvalue, Skusku) throwsException{

if(field == null) {

return;

}

//得到此属性的类型

Stringtype = field.getType. toString;

if( StringUtils.isBlank(value)) {

field. set(sku, null);

} elseif(type.endsWith( "String")) {

field. set(sku, value);

} elseif(type.endsWith( "long") || type.endsWith( "Long")) {

field. set(sku, Long.parseLong(value));

} elseif(type.endsWith( "double") || type.endsWith( "Double")) {

field. set(sku, Double.parseDouble(value));

} else{

field. set(sku, value);

}

}

publicstaticStringgetCellValue( Cellcell) {

DecimalFormatdf = new DecimalFormat( "#.##");

if(cell == null) {

return"";

}

switch(cell.getCellType) {

caseNUMERIC:

returndf.format(cell.getNumericCellValue);

caseSTRING:

returncell.getStringCellValue.trim;

caseBLANK:

returnnull;

}

return"";

}

最后,将转换完成的数据列表打印出来。运行结果如下:

[{ "id": 345000, "name": "电脑A", "price": 5999.0},{ "id": 345001, "name": "手机C", "price": 4599.0}]

Tips:如果您的程序出现 “NoClassDefFoundError”,请引入 ooxml-schemas 依赖:

< dependency>

< groupId> org.apache.poi </ groupId>

< artifactId> ooxml-schemas </ artifactId>

< version> 1.4 </ version>

</ dependency>

版本选择见下表,如 POI 4.0.0 对应 ooxml-schemas 1.4 版本:

UserModel 的局限

以上处理逻辑对于大部分的 Excel 文件都很适用,但最大的缺点是内存开销大,因为所有的数据都被加载入内存。实测,以上 3 列的 Excel 文件在 7 万行左右就会出现 OOM,而 XLS 文件最大行数为 65535 行,XLSX 更是达到了 1048576 行,如果将几万甚至百万级别的数据全部读入内存,内存溢出风险极高。

那么,该如何解决传统 UserModel 无法处理大批量 Excel 的问题呢?开发者们给出了许多精彩的解决方案,请看下一章。

三、进阶篇 - 内存优化的探索

接下来介绍本文重点内容,同时解决本文所提出的问题: 如何进行 Excel 解析的内存优化,从而处理百万行 Excel 文件?

(1)EventModel

前面我们提到,除了 UserModel 外,POI 还提供了另一种解析 Excel 的模型:EventModel 事件模型。不同于用户模型的 DOM 解析,事件模型采用了 SAX 的方式去解析 Excel。

EventModel & SAX 解析

SAX 的全称是 Simple API for XML,是一种基于事件驱动的 XML 解析方法。不同于 DOM 一次性读入 XML,SAX 会采用边读取边处理的方式进行 XML 操作。简单来讲,SAX 解析器会逐行地去扫描 XML 文档,当遇到标签时会触发解析处理器,从而触发相应的事件 Handler。我们要做的就是继承 DefaultHandler 类,重写一系列事件处理方法,即可对 Excel 文件进行相应的处理。

下面是一个简单的 SAX 解析的示例,这是要解析的 XML 文件:一个 sku 表,其中包含两个 sku 节点,每个节点有一个 id 属性和三个子节点。

<?xml version="1.0" encoding="UTF-8"?>

< skus>

< skuid= "345000">

< name> 电脑A </ name>

< price> 5999.0 </ price>

</ sku>

< skuid= "345001">

< name> 手机C </ name>

< price> 4599.0 </ price>

</ sku>

</ skus>

对照 XML 结构,创建 Java 实体类:

importlombok.Data;

@Data

publicclassSku{

privateLongid;

privateString name;

privateDoubleprice;

}

自定义事件处理类 SkuHandler:

importcom.alibaba.fastjson.JSON;

importorg.shy.domain.pojo.Sku;

importorg.xml.sax.Attributes;

importorg.xml.sax.SAXException;

importorg.xml.sax.helpers.DefaultHandler;

publicclassSkuHandler extendsDefaultHandler {

/**

* 当前正在处理的sku

*/

privateSku sku;

/**

* 当前正在处理的节点名称

*/

privateStringtagName;

@Override

publicvoidstartElement( Stringuri, StringlocalName, StringqName, Attributes attributes) throws SAXException {

if( "sku".equals(qName)) {

sku = newSku;

sku.setId(Long.valueOf((attributes.getValue( "id"))));

}

tagName = qName;

}

@Override

publicvoidendElement( Stringuri, StringlocalName, StringqName) throws SAXException {

if( "sku".equals(qName)) {

System.out.println( JSON.toJSONString(sku));

// 处理业务逻辑

// ...

}

tagName = null;

}

@Override

publicvoidcharacters(char[] ch, int start, int length) throws SAXException {

if( "name".equals(tagName)) {

sku.setName( newString(ch, start, length));

}

if( "price".equals(tagName)) {

sku.setPrice(Double.valueOf( newString(ch, start, length)));

}

}

}

其中,SkuHandler 重写了三个事件响应方法:

startElement—— 每当扫描到新 XML 元素时,调用此方法,传入 XML 标签名称 qName,XML 属性列表 attributes;

characters—— 每当扫描到未在 XML 标签中的字符串时,调用此方法,传入字符数组、起始下标和长度;

endElement—— 每当扫描到 XML 元素的结束标签时,调用此方法,传入 XML 标签名称 qName。

我们用一个变量 tagName 存储当前扫描到的节点信息,每次扫描节点发送变化时,更新 tagName;

用一个 Sku 实例维护当前读入内存的 Sku 信息,每当该 Sku 读取完成时,我们打印该 Sku 信息,并执行相应业务逻辑。这样,就可以做到一次读取一条 Sku 信息,边解析边处理。由于每行 Sku 结构相同,因此,只需要在内存维护一条 Sku 信息即可,避免了一次性把所有信息读入内存。

调用 SAX 解析器时,使用 SAXParserFactory 创建解析器实例,解析输入流即可,Main 方法如下:

importorg.shy.xlsx.sax.handler.SkuHandler;

importjavax.xml.parsers.SAXParser;

importjavax.xml.parsers.SAXParserFactory;

importjava.io.InputStream;

publicclassMySax{

publicstaticvoidmain(String[] args)throwsException {

parseSku;

}

publicstaticvoidparseSkuthrowsException {

SAXParserFactory saxParserFactory = SAXParserFactory.newInstance;

SAXParser saxParser = saxParserFactory.newSAXParser;

InputStream inputStream = ClassLoader.getSystemResourceAsStream( "skus.xml");

saxParser.parse(inputStream, newSkuHandler);

}

}

输出结果如下:

{ "id": 345000, "name": "电脑A", "price": 5999.0}

{ "id": 345001, "name": "手机C", "price": 4599.0}

以上演示了 SAX 解析的基础原理。EventModel 的 API 更复杂,同样通过重写 Event handler,实现 SAX 解析。有兴趣的读者,请参见 POI 官网的示例代码: https://poi.apache.org/components/spreadsheet/how-to.html

EventModel 的局限

POI 官方提供的 EventModel API 虽然使用 SAX 方式解决了 DOM 解析的问题,但是存在一些局限性:

① 属于 low level API,抽象级别低,相对比较复杂,学习使用成本高。

② 对于 HSSF 和 XSSF 类型的处理方式不同,代码需要根据不同类型分别做兼容。

③ 未能完美解决内存溢出问题,内存开销仍有优化空间。

④ 仅用于 Excel 解析,不支持 Excel 写入。

因此,笔者 不建议使用 POI 原生的 EventModel,至于有哪些更推荐的工具,请看下文。

(2)SXSSFSXSSF 简介

SXSSF,全称 Streaming XML SpreadSheet Format,是 POI 3.8-beta3 版本后推出的低内存占用的流式 Excel API,旨在解决 Excel 写入时的内存问题。它是 XSSF 的扩展,当需要将大批量数据写入 Excel 中时,只需要用 SXSSF 替换 XSSF 即可。SXSSF 的原理是滑动窗口 —— 在内存中保存一定数量的行,其余行存储在磁盘。这么做的好处是内存优化,代价是失去了随机访问的能力。SXSSF 可以兼容 XSSF 的绝大多数 API,非常适合了解 UserModel 的开发者。

内存优化会难以避免地带来一定限制:

① 在某个时间点只能访问有限数量的行,因为其余行并未被加载入内存。

② 不支持需要随机访问的 XSSF API,如删除 / 移动行、克隆 sheet、公式计算等。

③ 不支持 Excel 读取操作。

④ 正因为它是 XSSF 的扩展,所以不支持写入 Xls 文件。

UserModel、EventModel、SXSSF 对比

到这里就介绍完了所有的 POI Excel API,下表是所有这些 API 的功能对比,来自 POI 官网:

可以看到,UserModel 基于 DOM 解析,功能是最齐全的,支持随机访问,唯一缺点是 CPU 和内存效率不稳定;

EventModel 是 POI 提供的流式读取方案,基于 SAX 解析,仅支持向前访问,其余 API 不支持;

SXSSF 是 POI 提供的流式写入方案,同样仅能向前访问,支持部分 XSSF API。

(3)EasyExcelEasyExcel 简介

为了解决 POI 原生的 SAX 解析的问题,阿里基于 POI 二次开发了 EasyExcel。下面是引用自 EasyExcel 官网的介绍:

Java 解析、生成 Excel 比较有名的框架有 Apache poi、jxl。但他们都存在一个严重的问题就是非常的耗内存,poi 有一套 SAX 模式的 API 可以一定程度的解决一些内存溢出的问题,但 POI 还是有一些缺陷,比如 07 版 Excel 解压缩以及解压后存储都是在内存中完成的,内存消耗依然很大。easyexcel 重写了 poi 对 07 版 Excel 的解析,一个 3M 的 excel 用 POI sax 解析依然需要 100M 左右内存,改用 easyexcel 可以降低到几 M,并且再大的 excel 也不会出现内存溢出;03 版依赖 POI 的 sax 模式,在上层做了模型转换的封装,让使用者更加简单方便。

如介绍所言,EasyExcel 同样采用 SAX 方式解析,但由于重写了 xlsx 的 SAX 解析,优化了内存开销;对 xls 文件,在上层进一步进行了封装,降低了使用成本。API 上,采用注解的方式去定义 Excel 实体类,使用方便;通过事件监听器的方式做 Excel 读取,相比于原生 EventModel,API 大大简化;写入数据时,EasyExcel 对大批数据,通过重复多次写入的方式从而降低内存开销。

EasyExcel 最大的优势是使用简便,十分钟可以上手。由于对 POI 的 API 都做了高级封装,所以适合不想了解 POI 基础 API 的开发者。总之,EasyExcel 是一款值得一试的 API。

使用 EasyExcel

引入 easyexcel 依赖:

< dependency>

< groupId> com.alibaba </ groupId>

< artifactId> easyexcel </ artifactId>

< version> 2.2.3 </ version>

</ dependency>

首先,用注解定义 Excel 实体类:

importcom.alibaba.excel. annotation.ExcelProperty;

importlombok.Data;

@Data

publicclassSku{

@ExcelProperty(index = 0)

privateLongid;

@ExcelProperty(index = 1)

privateString name;

@ExcelProperty(index = 2)

privateDoubleprice;

}

接下来,重写 AnalysisEventListener 中的 invoke 和 doAfterAllAnalysed 方法,这两个方法分别在监听到单行解析完成的事件时和全部解析完成的事件时调用。每次单行解析完成时,我们打印解析结果,代码如下:

importcom.alibaba.excel.EasyExcel;

importcom.alibaba.excel.context.AnalysisContext;

importcom.alibaba.excel.event.AnalysisEventListener;

importcom.alibaba.fastjson.JSON;

importorg.shy.domain.pojo.easyexcel.Sku;

publicclassMyEasyExcel{

publicstaticvoidmain(String[] args){

parseSku;

}

publicstaticvoidparseSku{

//读取文件路径

String fileName = "D:sunhaoyu8DocumentsFilesexcel.xlsx";

//读取excel

EasyExcel.read(fileName, Sku . class, newAnalysisEventListener< Sku> {

@Override

publicvoidinvoke(Sku sku, AnalysisContext analysisContext){

System.out.println( "第"+ analysisContext.getCurrentRowNum + "行:"+ JSON.toJSONString(sku));

}

@Override

publicvoiddoAfterAllAnalysed(AnalysisContext analysisContext){

System.out.println( "全部解析完成");

}

}).sheet.doRead;

}

}

测验一下,用它解析一个十万行的 excel,该文件用 UserModel 读取会 OOM,如下:

运行结果:

(4)Xlsx-streamerXlsx-streamer 简介

Xlsx-streamer 是一款用于流式读取 Excel 的工具,同样基于 POI 二次开发。虽然 EasyExcel 可以很好地解决 Excel 读取的问题,但解析方式为 SAX,需要通过实现监听器以事件驱动的方式进行解析。有没有其他的解析方式呢?Xlsx-streamer 给出了答案。

译自官方文档的描述:

如果您过去曾使用 Apache POI 读取 Excel 文件,您可能会注意到它的内存效率不是很高。阅读整个工作簿会导致严重的内存使用高峰,这会对服务器造成严重破坏。Apache 必须读取整个工作簿的原因有很多,但其中大部分与该库允许您使用随机地址进行读写有关。如果(且仅当)您只想以快速且内存高效的方式读取 Excel 文件的内容,您可能不需要此功能。不幸的是,POI 库中唯一用于读取流式工作簿的东西要求您的代码使用类似 SAX 的解析器。该 API 中缺少所有友好的类,如 Row 和 Cell。该库充当该流式 API 的包装器,同时保留标准 POI API 的语法。继续阅读,看看它是否适合您。注意:这个库只支持读取 XLSX 文件。

如介绍所言,Xlsx-streamer 最大的便利之处是兼容了用户使用 POI UserModel 的习惯,它对所有的 UserModel 接口都给出了自己的流式实现,如 StreamingSheet、StreamingRow 等,对于熟悉 UserModel 的开发者来说,几乎没有学习门槛,可以直接使用 UserModel 访问 Excel。

Xlsx-streamer 的实现原理和 SXSSF 相同,都是滑动窗口 —— 限定读入内存中的数据大小,将正在解析的数据读到内存缓冲区中,形成一个临时文件,以防止大量使用内存。缓冲区的内容会随着解析的过程不断变化,当流关闭后,临时文件也将被删除。由于内存缓冲区的存在,整个流不会被完整地读入内存,从而防止了内存溢出。

与 SXSSF 一样,因为内存中仅加载入部分行,故牺牲了随机访问的能力,仅能通过遍历顺序访问整表,这是不可避免的局限。换言之,如果调用 StreamingSheet.getRow (int rownum) 方法,该方法会获取 sheet 的指定行,会抛出 “不支持该操作” 的异常。

Xlsx-streamer 最大的优势是兼容 UserModel,尤其适合那些熟悉 UserModel 又不想使用繁琐的 EventModel 的开发者。它和 SXSSF 一样,都通过实现 UserModel 接口的方式给出解决内存问题的方案, 很好地填补了 SXSSF 不支持读取的空白,可以说它是 “读取版” 的 SXSSF。

使用 Xlsx-streamer

引入 pom 依赖:

< dependency>

< groupId> com.monitorjbl </ groupId>

< artifactId> xlsx-streamer </ artifactId>

< version> 2.1.0 </ version>

</ dependency>

下面是一个使用 xlsx-streamer 的 demo:

importcom.monitorjbl.xlsx.StreamingReader;

importorg.apache.poi.ss.usermodel.Cell;

importorg.apache.poi.ss.usermodel.Row;

importorg.apache.poi.ss.usermodel.Sheet;

importorg.apache.poi.ss.usermodel.Workbook;

importjava.io.FileInputStream;

publicclassMyXlsxStreamer{

publicstaticvoid main( String[] args) throwsException{

parseSku;

}

publicstaticvoid parseSku throwsException{

FileInputStreamin= new FileInputStream( "D:sunhaoyu8DocumentsFilesexcel.xlsx");

Workbookwk = StreamingReader.builder

//缓存到内存中的行数,默认是10

.rowCacheSize( 100)

//读取资源时,缓存到内存的字节大小,默认是1024

.bufferSize( 4096)

//打开资源,必须,可以是InputStream或者是File

. open( in);

Sheetsheet = wk.getSheetAt( 0);

for( Rowr : sheet) {

System.out. print( "第"+ r.getRowNum + "行:");

for( Cellc: r) {

if( c!= null) {

System.out. print( c.getStringCellValue + " ");

}

}

System.out. println;

}

}

}

如代码所示,Xlsx-streamer 的使用方法为:使用 StreamingReader 进行参数配置和流式读取,我们可以手动配置固定的滑动窗口大小,有两个指标,分别是缓存在内存中的最大行数和缓存在内存的最大字节数,这两个指标会同时限制该滑动窗口的上限。接下来,我们可以使用 UserModel 的 API 去遍历访问读到的表格。

使用十万行量级的 excel 文件实测一下,运行结果:

StAX 解析

Xlsx-streamer 底层采用的解析方式,被称作 StAX 解析。StAX 于 2004 年 3 月在 JSR 173 规范中引入,是 JDK 6.0 推出的新特性。它的全称是 Streaming API for XML,流式 XML 解析。更准确地讲,称作 “流式拉分析”。之所以称作拉分析,是因为它和 “流式推分析”——SAX 解析相对。

之前我们提到,SAX 解析是一种事件驱动的解析模型,每当解析到标签时都会触发相应的事件 Handler,将事件 “推” 给响应器。在这样的推模型中,解析器是主动,响应器是被动,我们不能选择想要响应哪些事件,因此这样的解析比较不灵活。

为了解决 SAX 解析的问题,StAX 解析采用了 “拉” 的方式 —— 由解析器遍历流时,原来的响应器变成了驱动者,主动遍历事件解析器(迭代器),从中拉取一个个事件并处理。在解析过程中,StAX 支持使用 peek 方法来 "偷看" 下一个事件,从而决定是否有必要分析下一个事件,而不必从流中读取事件。这样可以有效提高灵活性和效率。

下面用 StAX 的方式再解析一下相同的 XML:

<?xml version="1.0" encoding="UTF-8"?>

< skus>

< skuid= "345000">

< name> 电脑A </ name>

< price> 5999.0 </ price>

</ sku>

< skuid= "345001">

< name> 手机C </ name>

< price> 4599.0 </ price>

</ sku>

</ skus>

这次我们不需要监听器,把所有处理的逻辑集成在一个方法中:

importcom.alibaba.fastjson.JSON;

importorg.apache.commons.lang3.StringUtils;

importorg.shy.domain.pojo.Sku;

importjavax.xml.stream.XMLEventReader;

importjavax.xml.stream.XMLInputFactory;

importjavax.xml.stream.events.Attribute;

importjavax.xml.stream.events.StartElement;

importjavax.xml.stream.events.XMLEvent;

importjava.io.InputStream;

importjava.util.Iterator;

publicclassMyStax{

/**

* 当前正在处理的sku

*/

privatestaticSkusku;

/**

* 当前正在处理的节点名称

*/

privatestaticStringtagName;

publicstaticvoid main( String[] args) throwsException{

parseSku;

}

publicstaticvoid parseSku throwsException{

XMLInputFactoryinputFactory = XMLInputFactory.newInstance;

InputStreaminputStream = ClassLoader.getSystemResourceAsStream( "skus.xml");

XMLEventReaderxmlEventReader = inputFactory.createXMLEventReader(inputStream);

while(xmlEventReader.hasNext) {

XMLEventevent = xmlEventReader.nextEvent;

// 开始节点

if(event.isStartElement) {

StartElementstartElement = event.asStartElement;

Stringname = startElement.getName. toString;

if( "sku".equals(name)) {

sku = new Sku;

Iteratoriterator = startElement.getAttributes;

while(iterator.hasNext) {

Attributeattribute = ( Attribute) iterator.next;

if( "id".equals(attribute.getName. toString)) {

sku.setId( Long.valueOf(attribute.getValue));

}

}

}

tagName = name;

}

// 字符

if(event.isCharacters) {

Stringdata = event.asCharacters.getData.trim;

if( StringUtils.isNotEmpty(data)) {

if( "name".equals(tagName)) {

sku.setName(data);

}

if( "price".equals(tagName)) {

sku.setPrice( Double.valueOf(data));

}

}

}

// 结束节点

if(event.isEndElement) {

Stringname = event.asEndElement.getName. toString;

if( "sku".equals(name)) {

System.out. println( JSON.toJSONString(sku));

// 处理业务逻辑

// ...

}

}

}

}

}

以上代码与 SAX 解析的逻辑是等价的,用 XMLEventReader 作为迭代器从流中读取事件,循环遍历事件迭代器,再根据事件类型做分类处理。有兴趣的小伙伴可以自己动手尝试一下,探索更多 StAX 解析的细节。

四、结论

EventModel、SXSSF、EasyExcel 和 Xlsx-streamer 分别针对 UserModel 的内存占用问题给出了各自的解决方案,下面是对所有本文提到的 Excel API 的对比:

  UserModel EventModel SXSSF EasyExcel Xlsx-streamer
内存占用量 较低
全表随机访问
读 Excel
读取方式 DOM SAX -- SAX StAX
写 Excel

建议您根据自己的使用场景选择适合的 API:

  1. 处理大批量 Excel 文件的需求,推荐选择 POI UserModel、EasyExcel;
  2. 读取大批量 Excel 文件,推荐选择 EasyExcel、Xlsx-streamer;
  3. 写入大批量 Excel 文件,推荐选择 SXSSF、EasyExcel。

使用以上 API,一定可以满足关于 Excel 开发的需求。当然 Excel API 不止这些,还有许多同类型的 API,欢迎大家多多探索和创新。

声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多资讯 >>>