使用python非常大的xml文件进行解析时出现问题
问题内容:
我有一个很大的xml文件(大约84MB),格式如下:
<books>
<book>...</book>
....
<book>...</book>
</books>
我的目标是提取每本书籍并获取其属性。我尝试解析它(就像对其他xml文件所做的那样),如下所示:
from xml.dom.minidom import parse, parseString
fd = "myfile.xml"
parser = parse(fd)
## other python code here
但是代码似乎在解析指令中失败。为什么会发生这种情况,我该如何解决?
我应该指出,该文件可能包含希腊语,西班牙语和阿拉伯字符。
这是我在ipython中得到的输出:
In [2]: fd = "myfile.xml"
In [3]: parser = parse(fd)
Killed
我想指出的是计算机在执行过程中冻结,因此这可能与如下所述的内存消耗有关。
问题答案:
我强烈建议在此使用SAX解析器。我不建议minidom
在任何大于几兆字节的XML文档上使用。我已经看到它在大约10MB的XML文档中使用了大约400MB的RAM读取。我怀疑您遇到的问题是由于minidom
请求过多的内存而引起的。
Python带有XML SAX解析器。要使用它,请执行以下操作。
from xml.sax.handlers import ContentHandler
from xml.sax import parse
class MyContentHandler(ContentHandler):
# override various ContentHandler methods as needed...
handler = MyContentHandler()
parse("mydata.xml", handler)
你的ContentHandler
子类将覆盖各种方法的ContentHandler(如startElement
,startElementNS
,endElement
,endElementNS
或characters
通过SAX解析器生成的这些处理事件,因为它在读取你的XML文档。
与DOM相比,SAX是处理XML的“更底层”方法。除了从文档中提取相关数据之外,ContentHandler还需要进行工作,以跟踪其当前包含的元素。从好的方面来看,由于SAX解析器不会将整个文档都保留在内存中,因此它们可以处理任何大小的XML文档,包括比您大的XML文档。
我还没有尝试过使用其他的DOM解析器,例如在这种大小的XML文档上使用lxml,但是我怀疑lxml仍会花费大量时间并使用大量内存来解析XML文档。如果每次运行代码都必须等待它读取84MB
XML文档,则这可能会减慢开发速度。
最后,我认为您提到的希腊,西班牙和阿拉伯字符不会造成问题。