使用python非常大的xml文件进行解析时出现问题


问题内容

我有一个很大的xml文件(大约84MB),格式如下:

<books>
    <book>...</book>
    ....
    <book>...</book>
</books>

我的目标是提取每本书籍并获取其属性。我尝试解析它(就像对其他xml文件所做的那样),如下所示:

from xml.dom.minidom import parse, parseString

fd = "myfile.xml"
parser = parse(fd)
## other python code here

但是代码似乎在解析指令中失败。为什么会发生这种情况,我该如何解决?

我应该指出,该文件可能包含希腊语,西班牙语和阿拉伯字符。

这是我在ipython中得到的输出:

In [2]: fd = "myfile.xml"

In [3]: parser = parse(fd)
Killed

我想指出的是计算机在执行过程中冻结,因此这可能与如下所述的内存消耗有关。


问题答案:

我强烈建议在此使用SAX解析器。我不建议minidom在任何大于几兆字节的XML文档上使用。我已经看到它在大约10MB的XML文档中使用了大约400MB的RAM读取。我怀疑您遇到的问题是由于minidom请求过多的内存而引起的。

Python带有XML SAX解析器。要使用它,请执行以下操作。

from xml.sax.handlers import ContentHandler
from xml.sax import parse

class MyContentHandler(ContentHandler):
    # override various ContentHandler methods as needed...


handler = MyContentHandler()
parse("mydata.xml", handler)

你的ContentHandler子类将覆盖各种方法的ContentHandler(如startElementstartElementNSendElementendElementNScharacters通过SAX解析器生成的这些处理事件,因为它在读取你的XML文档。

与DOM相比,SAX是处理XML的“更底层”方法。除了从文档中提取相关数据之外,ContentHandler还需要进行工作,以跟踪其当前包含的元素。从好的方面来看,由于SAX解析器不会将整个文档都保留在内存中,因此它们可以处理任何大小的XML文档,包括比您大的XML文档。

我还没有尝试过使用其他的DOM解析器,例如在这种大小的XML文档上使用lxml,但是我怀疑lxml仍会花费大量时间并使用大量内存来解析XML文档。如果每次运行代码都必须等待它读取84MB
XML文档,则这可能会减慢开发速度。

最后,我认为您提到的希腊,西班牙和阿拉伯字符不会造成问题。