robots.txt漏洞
robots.txt漏洞描述:
搜索引擎可以通过robots文件可以获知哪些页面可以爬取,哪些页面不可以爬取。Robots协议是网站国际互联网界通行的道德规范,其目的是保护网站数据和敏感信息、确保用户个人信息和隐私不被侵犯,如果robots.txt文件编辑的太过详细,反而会泄露网站的敏感目录或者文件,比如网站后台路径,从而得知其使用的系统类型,从而有针对性地进行利用。
robots.txt漏洞测试方法:
1、一般用工具扫描即可例如:AWVS,工具爬虫扫描得到敏感文件的路径,从而找到robots文件;
2、想手工挖掘也可以,直接在域名后输入/robots.txt进行查看。
robots.txt漏洞分析:
攻击者可通过发现robots.txt文件,收集网站的敏感目录或文件,从而有针对性的进行利用。
robots.txt漏洞等级:
【低危】:robots.txt中存在allow和disallow的具体内容泄露敏感目录信息。
robots.txt漏洞修复方案:
可根据实际情况,进行如下对应的修复:
1、 User-agent: * 这里的代表的所有的搜索引擎种类,*是一个通配符
2、 Disallow: / 这里定义是
这篇好文章是转载于:学新通技术网
- 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
- 本站站名: 学新通技术网
- 本文地址: /boutique/detail/tanhfjcafh
系列文章
更多
同类精品
更多
-
photoshop保存的图片太大微信发不了怎么办
PHP中文网 06-15 -
《学习通》视频自动暂停处理方法
HelloWorld317 07-05 -
word里面弄一个表格后上面的标题会跑到下面怎么办
PHP中文网 06-20 -
Android 11 保存文件到外部存储,并分享文件
Luke 10-12 -
photoshop扩展功能面板显示灰色怎么办
PHP中文网 06-14 -
微信公众号没有声音提示怎么办
PHP中文网 03-31 -
excel下划线不显示怎么办
PHP中文网 06-23 -
excel打印预览压线压字怎么办
PHP中文网 06-22 -
TikTok加速器哪个好免费的TK加速器推荐
TK小达人 10-01 -
怎样阻止微信小程序自动打开
PHP中文网 06-13