FEED_EXPORTERS_BASE¶违约:: {
'json': 'scrapy.exporters.JsonItemExporter',
'jsonlines': 'scrapy.exporters.JsonLinesItemExporter',
'jl': 'scrapy.exporters.JsonLinesItemExporter',
'csv': 'scrapy.exporters.CsvItemExporter',
'xml': 'scrapy.exporters.XmlItemExporter',
'marshal': 'scrapy.exporters.MarshalItemExporter',
'pickle': 'scrapy.exporters.PickleItemExporter',
}
包含由Scrapy支持的内置饲料导出器的dict。您可以通过分配 FEED_EXPORTERS = {
'csv': None,
}
FEED_EXPORT_BATCH_ITEM_COUNT¶2.3.0 新版功能. 违约: 如果分配了一个大于 生成多个输出文件时,必须在提要URI中至少使用以下一个占位符来指示如何生成不同的输出文件名:
例如,如果您的设置包括: FEED_EXPORT_BATCH_ITEM_COUNT = 100
你的呢 scrapy crawl spidername -o "dirname/%(batch_id)d-filename%(batch_time)s.json"
上面的命令行可以生成如下目录树: ->projectname
-->dirname
--->1-filename2020-03-28T14-45-08.237134.json
--->2-filename2020-03-28T14-45-09.148903.json
--->3-filename2020-03-28T14-45-10.046092.json
其中第一个和第二个文件正好包含100个项目。最后一个包含100个项目或更少。 FEED_URI_PARAMS¶违约: 包含函数导入路径的字符串,用于设置要应用的参数 printf-style string formatting 到源URI。 函数签名应如下所示:
例如,要包括
|
Archiver|手机版|笨鸟自学网 ( 粤ICP备20019910号 )
GMT+8, 2024-11-21 21:02 , Processed in 0.203399 second(s), 29 queries .