最简单的方法是将我的所有抓取项转储到json/csv/xml文件中?¶要转储到JSON文件,请执行以下操作: scrapy crawl myspider -O items.json
要转储到csv文件,请执行以下操作: scrapy crawl myspider -O items.csv
要转储到XML文件,请执行以下操作: scrapy crawl myspider -O items.xml
有关详细信息,请参阅 Feed 导出 在某些形式中使用的这个巨大的神秘``__VIEWSTATE``参数是什么?¶这个 解析大型XML/CSV数据源的最佳方法是什么?¶使用xpath选择器解析大型提要可能会有问题,因为它们需要在内存中构建整个提要的DOM,这可能会非常慢,并且会消耗大量内存。 为了避免在内存中一次分析所有提要,可以使用函数 我怎样才能指示蜘蛛停止自己呢?¶从回调中提出:exc:~scrapy.exceptions.CloseSpider`异常。 有关详细信息,请参阅:: exc:`~scrapy.exceptions.CloseSpider。 如何防止我的Scrapy机器人被禁止?¶见 避免被禁止 . 我应该使用蜘蛛参数或设置来配置我的蜘蛛吗?¶两个 spider arguments 和 settings 可以用来配置蜘蛛。没有严格的规则要求使用其中一个或另一个,但是设置更适合于参数,一旦设置,就不会改变太多,而spider参数的更改更频繁,甚至在每次spider运行时,有时甚至需要spider运行(例如,设置spider的起始URL)。 举个例子来说明,假设您有一个蜘蛛需要登录到一个站点来获取数据,并且您只想从站点的某个部分(每次都不同)获取数据。在这种情况下,登录的凭证将是设置,而要擦除的部分的URL将是spider参数。 |
Archiver|手机版|笨鸟自学网 ( 粤ICP备20019910号 )
GMT+8, 2025-1-3 04:35 , Processed in 0.015914 second(s), 17 queries .