根据卷积神经 *** 的SQL注入检测

访客6年前关于黑客接单604

一、前语
本文结合自然语言处理技能,选用卷积神经 *** 算法练习SQL注入检测模型,首要包含文本处理、提取文本向量和练习检测模型三个部分。因为自己是初学者,也是通过长辈们的文章来学习这方面的常识,许多当地或许了解不行充沛,请我们及时纠正。
二、练习数据
试验进程中的数据集首要分为三组练习集(用于练习检测模型的数据)、验证集(练习进程中验证模型的准确率)、测验集(测验练习完成后模型的准确率)。
练习会集正常样本24500条,SQL注入进犯样本25527条,XSS进犯样本25112条;验证会集正常样本10000条,SQL注入进犯样本10000条,XSS进犯样本10000条;测验中正常样本4000条,SQL注入进犯样本4000条,XSS进犯样本4000条。
正常样本数据格式如下:
code%3Dzs_000001%2Czs_399001%2Czs_399006%26cb%3Dfortune_hq_cn%26_%3D1498591852632
SQL注入样本数据格式如下:
-9500%22%20WHERE%206669%3D6669%20OR%20NOT%20%284237%3D6337%29
XSS注入样本数据格式如下:
site_id%3Dmedicare%22%3E%3Cscript%3Ealert%281337%29%3C/script%3E%2Casdf
三、文本处理
练习进程中运用的数据根本都通过了URL编码,有的或许通过过了多重编码,因而需进行URL循环解码,而且为了削减数字和其他无关要素对数据样本的影响对数据进行范化处理,将数字替换为0,超链接替换为http://u。代码如下:
def URLDECODE(payload):
    payload=payload.lower()
    while True:
        test=payload
        payload=unquote(payload)
        if test==payload:
            break
        else:
            continue
    #数字泛化为"0"
    payload,num=re.subn(r'd+',"0",payload)
    #替换url为”http://u
    payload,num=re.subn(r'(http|https)://[a-zA-Z0-9.@&/#!#?]+', "http://u", payload)
    #分词
    r = '''
        (?x)[w.]+?(
        |)
        |"w+?"
        |'w+?'
        |http://w
        |
        |
        |
        |[w.]+
    '''
    return nltk.regexp_tokenize(payload, r)
未处理的数据样本如下:
1)))%252bAND%252b8941%25253d8941%252bAND
/yk10/?page=54%20LIMIT%201%2C1%20UNION%20ALL%20SELECT%22C%20NULL%2C%20NULL%23
处理后数据样本如下:
['0', ')', ')', ')', 'and', '0=', '0', 'and']
['yk0', 'page=','0', 'limit', '0', '0', 'union', 'all', 'select', 'null', 'null', 'null']
四、练习词向量模型
Word2Vec是Google在2013年开源的一款将自然语言转化为计算机能够了解特征向量的东西。Word2Vec首要有CBOW(Continuous Bag-Of-Words)和Skip-Gram两种。CBOW模型练习进程是输入某一个词上下文相关的词对应的词向量,输出是这个词的词向量;而Skip-Gram与之相反,输入特定一个词的词向量,输出该特定词的上下文词向量。
将分词处理完的数据作为文本向量的练习数据,练习得到词向量模型,通过此模型,可将单词转化为计算机所能了解的向量,如单词select通过转化后如下:
[ 5.525984  -2.4446     -0.9985928  -1.6910793  1.8828514   2.8958166
 0.90518814 -1.3623474 -1.8427371   0.5957503  -3.9347208  1.4152565
 -0.0354603 -7.432402   -0.68348515 -4.0790896]
练习词向量模型的代码如下:
def train_word2vec():
    sentences=MySentences(datadir)
    cores=multiprocessing.cpu_count()
    if os.path.exists(model_dir):
        print ("Find cache file %s" % model_dir)
        model=Word2Vec.load(model_dir)

[1] [2]  黑客接单网

相关文章

代码共享:运用Python和Tesseract来辨认图形验证码

 各位在企业中做Web缝隙扫描或许浸透测验的朋友,或许会常常遇到需求对图形验证码进行程序辨认的需求。许多时分验证码分明很简略(关于非互联网企业,或许企业界网中的运用来说特别如此),但由于没有趁手的辨认...

本文从现代WAF的基本原理讲起,涵盖WAF指纹识别、多种WAF绕过技术(下)-黑客接单平台

今日咱们来接着上一篇,讲讲WAF绕过技能的其他几个方面。 Unicode标准化 让Unicode标准化是Unicode的一个功用,用于比较看起来类似的Unicode符号。例如,符号“ª”和“ᵃ”有不同...

Chafer运用的新的根据Python的有效载荷MechaFlounder

2019年11月,Chafer要挟小组针对土耳其政府从头运用他们在2019年早些时候运用的基础设施(Clearsky报导的活动中),特别是域名win10-update [.] com。尽管咱们没有见到...

一个MongoDB注入进犯事例剖析

在开端咱们的MongoDB“注入之旅”之前,咱们需求先知道和其他数据库比较,为什么咱们更乐意选MongoDB——由于MongoDB并不是SQL作为查询句子,所以人们可能会认为这样的数据库难以进行注入进...

使用Google进行批量SQL注入扫描-黑客接单平台

0×01:简介 在运用GoogleHack进行SQL注入点查询时,手艺的办法一般为经过谷歌语法的inurl判别是否存在动态查询参数,然后对查询的网站url进行手艺判别是否存在SQL注入缝隙,如or 1...

阿里如此盾Web使用防火墙深度测评

在本年的WitAwards 2019互联网安全年度评选中,阿里如此盾Web运用防火墙(WAF)以其技能和服务赢得了群众和评委的认可,斩获「年度云安全产品及服务」奖项。实际上,WAF已经成为企业看护we...