在Windows平台下,如果想运行爬虫的话,就需要在cmd中输入:
1
|
scrapy crawl spider_name |
这时,爬虫就能启动,并在控制台(cmd)中打印一些信息,如下图所示:
但是,cmd中默认只能显示几屏的信息,其他的信息就无法看到。
如果我们想查看爬虫在运行过程中的调试信息或错误信息的话,会很不方便。
此时,我们就可以将控制台的信息写入的一个文本文件中去,方便我们查看。
命令如下:
1
|
D:\>scrapy crawl spder_name - s LOG_FILE = scrapy.log |
总结
以上就是本文关于Python使用Scrapy保存控制台信息到文本解析的全部内容,希望对大家有所帮助。感兴趣的朋友可以继续参阅本站其他相关专题,如有不足之处,欢迎留言指出。感谢朋友们对本站的支持!
原文链接:http://blog.csdn.net/php_fly/article/details/19679167