scrapy使用文件管道FilesPipeline下载视频
1.爬虫文件
-
class MeiShiSpider(scrapy.Spider):
-
name = 'meishi'
-
allowed_domains = ['百度.com']
-
start_urls = ['https://tieba.百度.com/f?kw=美食']
-
-
def parse(self, response):
-
# 获取视频地址在网页的数据范围
-
data = re.findall(r'(<ul id="thread_list".*?)<div class="thread_list_bottom clearfix">', response.text, re.S)[0]
-
# 获取一页中的所有的视频地址
-
video_urls = re.findall(r'data-video="(.*?)"', data)
-
for url in video_urls:
-
item = {}
-
# 从视频地址中提取出文件名与格式
-
item['name'] = url.split('?')[0].split('/')[-1]
-
item['url'] = url # 视频地址
-
yield item
2.管道文件
-
from scrapy.pipelines.files import FilesPipeline
-
-
# 自定义一个类,继承FilesPipeline这个父类
-
class VideoDownloadPipeline(FilesPipeline):
-
-
def get_media_requests(self, item, info):
-
# 依次对视频地址发送请求,meta用于传递视频的文件名
-
yield scrapy.Request(url=item['url'], meta={'name': item['name']})
-
-
def file_path(self, request, response=None, info=None, *, item=None):
-
filename = request.meta['name'] # 获取视频文件名
-
return filename # 返回下载的视频文件名
-
-
def item_completed(self, results, item, info):
-
return item
3.设置文件
-
USER_AGENT = UserAgent().random # 随机请求头
-
LOG_LEVEL = 'WARNING' # 设置日志级别
-
FILES_STORE = r'G:\视频' # 保存视频文件的文件夹
-
CONCURRENT_REQUESTS = 3 # 设置并发数
-
DOWNLOAD_DELAY = 1 # 设置下载延时
-
COOKIES_ENABLED = False # 关闭cookie
-
ITEM_PIPELINES = {
-
'video.pipelines.VideoDownloadPipeline': 300, # 打开管道
-
}
后面执行爬虫即可
这篇好文章是转载于:学新通技术网
- 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
- 本站站名: 学新通技术网
- 本文地址: /boutique/detail/tanhfigkba
系列文章
更多
同类精品
更多
-
photoshop保存的图片太大微信发不了怎么办
PHP中文网 06-15 -
《学习通》视频自动暂停处理方法
HelloWorld317 07-05 -
Android 11 保存文件到外部存储,并分享文件
Luke 10-12 -
word里面弄一个表格后上面的标题会跑到下面怎么办
PHP中文网 06-20 -
photoshop扩展功能面板显示灰色怎么办
PHP中文网 06-14 -
微信公众号没有声音提示怎么办
PHP中文网 03-31 -
excel下划线不显示怎么办
PHP中文网 06-23 -
excel打印预览压线压字怎么办
PHP中文网 06-22 -
怎样阻止微信小程序自动打开
PHP中文网 06-13 -
TikTok加速器哪个好免费的TK加速器推荐
TK小达人 10-01