避免重复爬网


问题内容

我编写了一个简单的搜寻器。在settings.py文件中,我通过参考scrapy文档

DUPEFILTER_CLASS = 'scrapy.dupefilter.RFPDupeFilter'

如果我停止搜寻器并再次重新启动搜寻器,则它将再次抓取重复的URL。难道我做错了什么?


问题答案:

我相信你正在寻找的是“持久性支持”,以暂停和恢复爬网。

要启用它,你可以执行以下操作:

scrapy crawl somespider -s JOBDIR=crawls/somespider-1