1200字范文,内容丰富有趣,写作的好帮手!
1200字范文 > 使用深度学习检测DGA(域名生成算法)——LSTM的输入数据本质上还是词袋模型...

使用深度学习检测DGA(域名生成算法)——LSTM的输入数据本质上还是词袋模型...

时间:2022-01-06 12:48:09

相关推荐

使用深度学习检测DGA(域名生成算法)——LSTM的输入数据本质上还是词袋模型...

from:/articles/network/139697.html

DGA(域名生成算法)是一种利用随机字符来生成C&C域名,从而逃避域名黑名单检测的技术手段。例如,一个由Cryptolocker创建的DGA生成域,如果我们的进程尝试其它建立连接,那么我们的机器就可能感染Cryptolocker勒索病毒。域名黑名单通常用于检测和阻断这些域的连接,但对于不断更新的DGA算法并不奏效。我们的团队也一直在对DGA进行广泛的研究,并在arxiv发表了一篇关于使用深度学习预测域生成算法的文章。

本文我将为大家介绍一种,简单而有效的DGA生成域的检测技术。我们将利用神经网络(或称之为深度学习)更具体的来讲就是长短期记忆网络(LSTM),来帮助我们检测DGA生成域。首先我们会探讨深度学习的优势,然后我将进一步的通过实例来验证我的论述。

如果你之前对机器学习并不了解,那么我建议你先翻看我之前发布的三篇关于机器学习的文章再来阅读本文,这样会更有助于你的理解。

长短期记忆网络(LSTM)的好处

深度学习近年来在机器学习社区中可以说是占尽风头。深度学习是机器学习中一种基于对数据进行表征学习的方法。其好处是用非监督式或半监督式的特征学习和分层特征提取高效算法来替代手工获取特征。随着数十年的不断发展,深度学习在过去四五年间一直很受欢迎。再加上硬件的不断升级优化(如GPU的并行处理改进),也使得培训复杂网络成为了可能。LSTM是一种RNN的特殊类型,可以学习长期依赖信息,如文本和语言等。LSTM是实现循环神经网络的一个这样的技巧,意味着包含循环的神经网络。LSTM在长时间的学习模式方面非常擅长如文本和言语。在本文的例子中,我将使用它们来学习字符序列(域名)的模式,从而帮助我们识别哪些是DGA生成域哪些不是。

使用深度学习的一大好处就是我们可以省去特征工程这一繁杂的过程。而如果我们使用常规方法来生成一长串特征列表(例如长度,元音,辅音以及n-gram模型),并使用这些特征来识别DGA生成域和非DGA生成域。那么就需要安全人员实时的更新和创建新的特征库,这将是一个异常艰巨和痛苦的过程。其次,一旦攻击者掌握了其中的过滤规则,那么攻击者就可以轻松地通过更新其DGA来逃避我们的检测。而深度学习的自动表征学习能力,也让我们能够更快的适应不断变化的对手。同时,也大大减少了我们人力物力的巨大投入。我们技术的另一个优点是仅对域名进行识别而不使用任何上下文功能,如NXDomains

我们技术的另一个优点是,我们仅对域名进行分类而不使用任何上下文功能如NXDomain。上下文功能的生成往往需要额外昂贵的基础设施(如网络传感器和第三方信誉系统)。令人惊讶的是对于没有上下文信息的LSTM,执行却明显优于它们。如果你想了解更多关于LSTM的相关内容,我推荐大家可以关注:colah的博客和。

什么是DGA?

首先我们要搞清楚什么是DGA?以及DGA检测的重要性。攻击者常常会使用域名将恶意程序连接至C&C服务器,从而达到操控受害者机器的目的。这些域名通常会被编码在恶意程序中,这也使得攻击者具有了很大的灵活性,他们可以轻松地更改这些域名以及IP。而对于另外一种硬编码的域名,则往往不被攻击者所采用,因为其极易遭到黑名单的检测。

而有了DGA域名生成算法,攻击者就可以利用它来生成用作域名的伪随机字符串,这样就可以有效的避开黑名单列表的检测。伪随机意味着字符串序列似乎是随机的,但由于其结构可以预先确定,因此可以重复产生和复制。该算法常被运用于恶意软件以及远程控制软件上。

我们来简单了解下攻击者和受害者端都做了哪些操作。首先攻击者运行算法并随机选择少量的域(可能只有一个),然后攻击者将该域注册并指向其C2服务器。在受害者端恶意软件运行DGA并检查输出的域是否存在,如果检测为该域已注册,那么恶意软件将选择使用该域作为其命令和控制(C2)服务器。如果当前域检测为未注册,那么程序将继续检查其它域。

安全人员可以通过收集样本以及对DGA进行逆向,来预测哪些域将来会被生成和预注册并将它们列入黑名单中。但DGA可以在一天内生成成千上万的域,因此我们不可能每天都重复收集和更新我们的列表。

图1展示了许多类型的恶意软件的工作流程。如图所示恶意软件会尝试连接三个域:,和。前两个域未被注册,并从DNS服务器接收到NXDomain响应。第三个域已被注册,因此恶意软件会使用该域名来建立连接。

见原文。。。

我们提出了使用神经网络来检测DGA的简单技术。该技术不需要使用任何上下文信息(如NXDomains和第三方信誉系统),并且检测效果也远远优于现有的一些技术。本文只是我们关于DGA研究的部分摘要,你可以点击阅读我们在arxiv的完整文章。同时,你也可以对我们发布在github上的代码做进一步的研究学习。

核心代码如下:

"""Train and test LSTM classifier"""import dga_classifier.data as dataimport numpy as npfrom keras.preprocessing import sequencefrom keras.models import Sequentialfrom keras.layers.core import Dense, Dropout, Activationfrom keras.layers.embeddings import Embeddingfrom keras.layers.recurrent import LSTMimport sklearnfrom sklearn.cross_validation import train_test_splitdef build_model(max_features, maxlen):"""Build LSTM model"""model = Sequential()model.add(Embedding(max_features, 128, input_length=maxlen))model.add(LSTM(128))model.add(Dropout(0.5))model.add(Dense(1))model.add(Activation('sigmoid'))pile(loss='binary_crossentropy',optimizer='rmsprop')return modeldef run(max_epoch=25, nfolds=10, batch_size=128):"""Run train/test on logistic regression model"""indata = data.get_data()# Extract data and labelsX = [x[1] for x in indata]labels = [x[0] for x in indata]# Generate a dictionary of valid charactersvalid_chars = {x:idx+1 for idx, x in enumerate(set(''.join(X)))}max_features = len(valid_chars) + 1maxlen = np.max([len(x) for x in X])# Convert characters to int and padX = [[valid_chars[y] for y in x] for x in X]X = sequence.pad_sequences(X, maxlen=maxlen)# Convert labels to 0-1y = [0 if x == 'benign' else 1 for x in labels]final_data = []for fold in range(nfolds):print "fold %u/%u" % (fold+1, nfolds)X_train, X_test, y_train, y_test, _, label_test = train_test_split(X, y, labels, test_size=0.2)print 'Build model...'model = build_model(max_features, maxlen)print "Train..."X_train, X_holdout, y_train, y_holdout = train_test_split(X_train, y_train, test_size=0.05)best_iter = -1best_auc = 0.0out_data = {}for ep in range(max_epoch):model.fit(X_train, y_train, batch_size=batch_size, nb_epoch=1)t_probs = model.predict_proba(X_holdout)t_auc = sklearn.metrics.roc_auc_score(y_holdout, t_probs)print 'Epoch %d: auc = %f (best=%f)' % (ep, t_auc, best_auc)if t_auc > best_auc:best_auc = t_aucbest_iter = epprobs = model.predict_proba(X_test)out_data = {'y':y_test, 'labels': label_test, 'probs':probs, 'epochs': ep,'confusion_matrix': sklearn.metrics.confusion_matrix(y_test, probs > .5)}print sklearn.metrics.confusion_matrix(y_test, probs > .5)else:# No longer improving...break and calc statisticsif (ep-best_iter) > 2:breakfinal_data.append(out_data)return final_data

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。