python爬虫小白scrapy的使

中科白癜风医院康复经历分享 http://pf.39.net/bdfyy/bdfjc/171227/5963402.html
本文中的知识点:安装scrapyscrapy的基础教程scrapy使用代理安装scrapy以下的演示是基于windows系统,windows与linux都可以用。安装好后,确认scrapy是否安装图Scrapy1.8.0安装完成,用scrapy创建个新项目吧。命令行下输入,这里注意,命令会在当前目录下创建ts项目。创建新项目图为在桌面创建创建成功后给的提示截图如下:分析目录文件让我们去目录下看看都有些什么,有个scrapy.cfg配置文件,ts目录。进入ts目录。spiders目录——爬虫代码放这里items.py——要抓取的字段middleware——中间件pipelines——管道文件settings——设置文件先不用管这么细,我们先跑起来。代码样例抓个百度首页试试吧。进入spiders目录里,创建个baidu的爬虫,并且限制抓取域名的范围。注意要在spiders的目录下输入以下命令scrapygenspiderbaiduquot;baidu.


转载请注明:http://www.aierlanlan.com/grrz/7686.html

  • 上一篇文章:
  •   
  • 下一篇文章: 没有了