• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

关闭python爬虫的ssl警告,以和网站证书问题

武飞扬头像
看到请叫我滚去戒烟
帮助1

在我们从网页爬取图片时,如果是在一个for循环中下载图片,那么控制台会一直提示不安全请求警告,建议添加安全证书:看的特别心烦

InsecureRequestWarning: Unverified HTTPS request is being made to host 'img.jdlingyu.com'. Adding certificate verification is strongly advised. See:

我们导入request模块,添加以下代码,屏蔽警告

  1.  
    requests.packages.urllib3.disable_warnings()
  2.  
    sslcontext = ssl.SSLContext(ssl.PROTOCOL_TLSv1)
  3.  
    sslcontext.verify_mode = ssl.CERT_NONE

[SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed:(_ssl.c:661))

如果在爬取数据时出现以上问题,可能时网站证书有问题,在python3中引入了ssl模块,可以忽略对网站证书的认证。

导入ssl包后加入以下代码:

ssl._create_default_https_context = ssl._create_unverified_context

这样可以全局取消证书,但是安全性嘛....

或者在使用request.get()时,加入verify=False,来取消对证书的认证,即

response = requests.get(url=url,headers=headers,verify=False)

同样可以解决问题

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhgkicke
系列文章
更多 icon
同类精品
更多 icon
继续加载