• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

python爬虫搭建scrapy环境,创建scrapy项目

武飞扬头像
喝星茶发o_o ....
帮助1

创建文件夹 --> 打开文件夹 -->全选路径 --> 输入cmd -->按Enter
下载scrapy镜像命令

pip install -i https://pypi.douban.com/simple  scrapy

没有下载成功多下载几次即可!
创建scrapy项目命令

scrapy startproject myspider

【myspider项目名字自定义】
scrapy.cfg 项目的配置文件
spiders 自己定义的spider的文件夹
settings.py 设置文件,UA,启动管道
pipelines.py 管道,保存数据
items.py 自己预计需要爬取的内容

创建文件命令 做操作

cd myspider
scrapy genspider example example.com

【example example.com 自定义名字的.com或者.cn】

用pycharm打开刚刚创建的项目就可以写代码爬虫了

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhfiikhc
系列文章
更多 icon
同类精品
更多 icon
继续加载