以前发布了基于python的开源版本 - superl-url,点赞的小伙伴还挺多,但是后期实在是没时间维护,升级的事情一直搁置了。
时隔四五年,这次使用GO语言重新设计与开发了,彻底摆脱python环境与依赖问题,并且资源占用更少,也支持跨平台运行!
MSRAY简介
Msray,可根据指定的关键词,自动从多个搜索引擎获取搜索结果数据(并发), 并且支持自动去重复、自定义代理、webhook推送等。
不仅仅是url采集!支持存储域名、网址(url)、标题、描述、结果来源的搜索引擎名称、IP地址、服务器所属国家等多种信息!
msray是从msray-plus商业版中提取出来的精简版本,可免费使用无功能限制。
下载地址:https://github.com/super-l/msray
运行效果
1. 谷歌引擎(google)
2. 法国引擎(QWANT)
3. 必应引擎(bing)
4. 俄罗斯引擎(yandex)
程序优势
1. 支持国外与国内多个主流搜索引擎,每个引擎的参数可单独控制;
2. 可自动检测当前网络属于国内还是国外,用于部分国外引擎的初始网络代理设定判断。
3. 无需特定环境与依赖,可直接运行;
4. 自动去重过滤。同时支持按url模式或者域名模式进行重复判断;
5. 支持webhook,采集的结果,可实时推送到自定义远程API接口;
6. CPU占用、内存资源占用低;
7. 跨平台,同时支持windows各主流版本操作系统、以及Centos、Ubuntu、Mac等各版本操作系统;
8. 支持自定义保存数据字段(域名、网址、所属引擎、标题、描述、IP、访问状态码等)
9. 支持自定义代理功能,同时支持本地txt载入代理,以及支持代理平台API接口,可自定义自动更新时间频率;
下一版本新增多种过滤参数控制功能!域名后缀过滤、标题关键词过滤、域名级别过滤;
目前支持的搜索引擎列表
必应搜索引擎
Google搜索引擎
Yandex搜索引擎
Qwant搜索引擎
配置文件说明
配置文件路径: config.yaml
system: logLevel: debug # 日志级别 建议debug或info repeatCheckType: domain # 重复过滤类型 域名=domain 网址=url result: saveField: # 需要存储的字段 engine: true # 存储使用的搜索引擎别名,如:bing | baidu | qwant domain: true # 存储域名 url: true # 存储URL title: true # 存储标题 description: false # 存储描述 ip: true # 存储IP country: false # 存储服务器所属国家 httpStatus: false #状态码 timeout: 10 # 获取数据的网络请求超时时间 engine: # 搜索引擎配置 比如:bing=必应 bing: status: false # 是否开启 delay: 1 # 每页采集后的延迟时间 page: 1 # 每个关键词采集的页数 language: timeout: 10 # 请求超时时间 yandex: status: false delay: 10 page: 5 language: timeout: 10 qwant: status: false delay: 1 page: 8 language: timeout: 10 google: status: true delay: 3 page: 8 language: timeout: 10 token: AB1-RNWjeJzLuTALlFyb8TyyKQZV:1662965962939 baidu: status: false delay: 1 page: 8 language: timeout: 10 webhook: status: false # 是否开启推送 url: http://127.0.0.1/receive # 接收推送数据的地址 proxy: status: true # 是否启动代理功能 local: path: data/proxy.txt # 文件路径 isCommon: 1 # 线路类型 国外线路=1 国内线路2 api: url: # 访问地址 intervalTime: 10 # 自动更新时间(秒) protocolType: http # 协议类型,如http/socks4 isCommon: 1 # 线路类型 国外线路=1 国内线路2
运行说明
msray.exe search -k 关键词
如:
msray.exe search -k msray
采集完成后, 会在result目录下生成结果文件(每个关键词单独一个文件), 一行一个采集结果。
注意:重复关键词采集,将会自动清空上次采集的内容;
技巧分享
借助webhook功能,你可以实现很多拓展与自定义功能哦!
比如自动把搜索结果中的网站域名,存储到自己的数据库,又或者联动fofa、xray、goby、nessus等等软件实现安全漏扫扫描与检查。
下载地址
查看项目的release: https://github.com/super-l/msray/releases/