电脑能打开敏感网站的浏览器(浏览敏感网页)
电脑能打开敏感网站的浏览器(浏览敏感网页),新营销网红网本栏目通过数据整理汇集了电脑能打开敏感网站的浏览器(浏览敏感网页)相关信息,下面一起看看。
一.背景介绍
Dirsearch是一个基于python的命令行工具,旨在暴力扫描页面结构,包括网页中的目录和文件。
Dirsearch具有以下特征
多线程、连接保持、支持多个后缀(-e
扩展名ASP、PHP)、报告生成(纯文本、JSON)、无效网页的启发式检测、递归强力扫描、支持HTTP代理、用户代理的随机化、批处理、请求延迟、扫描仪和字典、字典必须是文本文件,除了特殊的% ext%之外,其他所有行将被处理。
敏感网站信息包括以下内容
后台目录弱密码,主密码,爆破
安装包获取数据库信息,甚至网站源代码。
上传目录截断,上传图片马等。
Mysql管理界面弱密码,爆炸,密码,然后脱裤子,甚至得到外壳。
安装页面可以安装两次,绕过。
Phpinfo:它会暴露你已经配置好的各种信息。
编辑fck、柯等
短文件利用windows,apache等。条件恶劣
提到网站的敏感目录,就不得不提robots.txt文件。
Robots.txt文件是专门为搜索引擎robot编写的纯文本文件。我们可以在这个文件中指定网站中不希望被robot访问的目录。这样,我们网站的部分或全部内容就不能被搜索引擎收录,或者搜索引擎只能收录指定的内容。所以我们可以
有了robots.txt,Google的机器人就无法访问我们网站上的重要文件,GoogleHack的威胁也就不存在了。
第二,资源和设备
1.安装一个Kali Linux的虚拟机;
2.一台主机虚拟机;
3.一个白色的小家伙准备好了。
第三,渗透攻防
3.1在线渗透测试网站介绍,如下图所示。
-u url,url=URL设置URL-urllist,URL -list=urllist设置URL list-e extensions,extensions=extensions网站脚本类型-w WORDLIST,wordlist=WORDLIST设置字典-l,小写小写-f,force-extensions强制扩展字典中的每个条目-s DELAY,delay=DELAY设置请求之间的延迟-r,递归刷强制递归扫描。
3.7保存dirsearch.py敏感文件扫描结果的目录,如下图所示。
目录/root/dirsearch/reboots/
3.8检查扫描的敏感信息,如下图所示。
命令cat文件名
3.9扫描的敏感文件如下图所示。
3.10检查敏感信息网页,如下图所示。
查看将URl复制到物理机浏览器
直接选择URl在kali浏览器中打开。
相关十大巅峰网游小说(十大公认网游小说推荐)
百度网盘登录入口(百度网盘共享群的正确使用方法)
恶人传(《恶人传》以暴制暴成救赎)
百度网盘登录入口(百度网盘安装方法)
番禺中学排名(番禺区热门学校盘点)
道路标志(完整且有插图的交通安全标志)
哪个是苹果的序列号(iPhone序列号识字)
故宫太和殿介绍(故宫太和殿为什么叫金殿)
东营人均gdp(全国人均GDP前15名城市)
鲁振原型(鲁镇传奇的原型)
硫酸铜是什么颜色(硫酸铜的用途和危害)
小米平板4参数(小米平板4参数全曝光)
更多电脑能打开敏感网站的浏览器(浏览敏感网页)相关信息请关注本文章,本文仅仅做为展示!