freeBuf
主站

分类

漏洞 工具 极客 Web安全 系统安全 网络安全 无线安全 设备/客户端安全 数据安全 安全管理 企业安全 工控安全

特色

头条 人物志 活动 视频 观点 招聘 报告 资讯 区块链安全 标准与合规 容器安全 公开课

点我创作

试试在FreeBuf发布您的第一篇文章 让安全圈留下您的足迹
我知道了

官方公众号企业安全新浪微博

FreeBuf.COM网络安全行业门户,每日发布专业的安全资讯、技术剖析。

FreeBuf+小程序

FreeBuf+小程序

0

1

2

3

4

5

6

7

8

9

0

1

2

3

4

5

6

7

8

9

0

1

2

3

4

5

6

7

8

9

0

1

2

3

4

5

6

7

8

9

0

1

2

3

4

5

6

7

8

9

0

1

2

3

4

5

6

7

8

9

0

1

2

3

4

5

6

7

8

9

0

1

2

3

4

5

6

7

8

9

0

1

2

3

4

5

6

7

8

9

HTTPLoot:一款功能强大的Web安全测试工具
Alpha_h4ck 2022-12-22 22:19:43 323453
所属地 广西

关于HTTPLoot

HTTPLoot是一款功能强大的Web安全测试工具,该工具是一个自动化工具,可以帮助广大研究人员同时抓取和填写表单,并尝试触发目标站点的错误/调试页面,然后从面向客户端的站点代码中挖掘有价值的敏感信息。

工具要求

由于该工具基于Go语言开发,因此广大研究人员需要在本地设备上安装并配置好Go v1.16或更高版本语言环境。

工具下载

广大研究人员可以使用下列命令将该项目源码克隆至本地:

git clone https://github.com/redhuntlabs/HTTPLoot.git

下载完成后,切换到项目目录下并运行下列命令即可完成HTTPLoot代码构建:

go build

除此之外,我们也可以访问该项目的【Releases页面】获取预构建的HTTPLoot文件。

工具使用

在使用该工具时,我们还需要用到两个JSON文件,即lootdb.jsonregexes.json,记忆从代码库获取到的代码文件。一旦我们拿到了这三个文件,就可以运行HTTPLoot了。

查看工具帮助信息

$ ./httploot --help

      _____

       )=(

      /   \     H T T P L O O T

     (  $  )                  v0.1

      \___/

 

[+] HTTPLoot by RedHunt Labs - A Modern Attack Surface (ASM) Management Company

[+] Author: Pinaki Mondal (RHL Research Team)

[+] Continuously Track Your Attack Surface using https://redhuntlabs.com/nvadr.

 

Usage of ./httploot:

  -concurrency int

        同时处理的站点最大数量 (默认为100)

  -depth int

        横向爬取的最大深度限制 (默认为3)

  -form-length int

        为填写表单字段而随机生成的字符串长度 (默认为5)

  -form-string string

        工具将自动填充表单的值,如果未提供值,则将随机生成字符串

  -input-file string

        包含目标站点域名的列表文件路径

  -output-file string

        存储结果的CSV文件路径 (默认为"httploot-results.csv")

  -parallelism int

        每个站点要并行爬取的URL数量 (默认为15)

  -submit-forms

        是否自动提交表单以触发调试页面

  -timeout int

        HTTP请求的默认超时 (默认为10)

  -user-agent string

        在HTTP请求期间使用的用户代理 (默认为"Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:98.0) Gecko/20100101 Firefox/98.0")

  -verify-ssl

        发出HTTP请求时验证SSL证书

  -wildcard-crawl

        允许对正在扫描的域之外的链接进行爬取

并发扫描

-concurrency:指定并发扫描的最大站点数量;

-parallelism:指定每个站点同时爬取的链接数量;

上述这两个参数对工具结果的性能和可靠性至关重要。

资源爬取

爬取深度使用-depth参数指定,我们可以设置一个整数值来控制爬取深度。

-wildcard-crawl参数可以指定是否需要爬取目标域名之外的URL。

表单填写

如果你想要工具扫描调试页面,则需要使用-submit-forms参数。该参数将控制工具直接自动提交表单并尝试触发错误/调试页面。

如果启用的-submit-forms参数,我们还可以控制提交到表单字段中的字符串。-form-string参数用于指定提交的字符串值,-form-length参数控制随机生成的字符串长度。

网络优化

-timeout:指定请求的HTTP超时;

-user-agent:指定HTTP请求中的user-agent;

-verify-ssl:指定是否需要验证SSL证书;

输入/输出

我们可以使用-input-file参数指定要读取的输入文件,我们可以指定一个包含了目标URL列表的文件路径。-output-file参数用于指定输出结果存储的文件路径,默认情况下,该路径默认为httploot-results.csv。

许可证协议

本项目的开发与发布遵循MIT开源许可证协议。

工具使用演示

视频地址:【点我观看

项目地址

HTTPLoot:【GitHub传送门

参考资料

https://redhuntlabs.com/blog/the-http-facet-httploot.html

https://github.com/eth0izzle/shhgit

https://redhuntlabs.com/nvadr

# web安全 # 敏感信息 # 敏感信息获取 # 爬取
免责声明
1.一般免责声明:本文所提供的技术信息仅供参考,不构成任何专业建议。读者应根据自身情况谨慎使用且应遵守《中华人民共和国网络安全法》,作者及发布平台不对因使用本文信息而导致的任何直接或间接责任或损失负责。
2. 适用性声明:文中技术内容可能不适用于所有情况或系统,在实际应用前请充分测试和评估。若因使用不当造成的任何问题,相关方不承担责任。
3. 更新声明:技术发展迅速,文章内容可能存在滞后性。读者需自行判断信息的时效性,因依据过时内容产生的后果,作者及发布平台不承担责任。
本文为 Alpha_h4ck 独立观点,未经授权禁止转载。
如需授权、对文章有疑问或需删除稿件,请联系 FreeBuf 客服小蜜蜂(微信:freebee1024)
被以下专辑收录,发现更多精彩内容
+ 收入我的专辑
+ 加入我的收藏
Alpha_h4ck LV.10
好好学习,天天向上
  • 2359 文章数
  • 1023 关注者
Tetragon:一款基于eBPF的运行时环境安全监控工具
2025-01-21
DroneXtract:一款针对无人机的网络安全数字取证工具
2025-01-21
CNAPPgoat:一款针对云环境的安全实践靶场
2025-01-21
文章目录