人工智能(AI)和机器学习(ML)是技术领域的热门话题。从搜索结果推荐到智能汽车,每天都会讨论新的用例和应用程序。但是网络安全组织用这项技术做什么呢?怎样才能让人工智能具备额外的安全性?人工智能和ML如何改变我们打击网络犯罪的方式?

AI和ML都已经在许多网络安全平台上被采用和实施。但在这两种技术成为主流之前,讨论它们的影响是很重要的。

人工智能与人工智能的区别

像人工智能和机器学习这样的热门技术的问题在于,人们和公司最终对他们所做的事情有不同的看法真的是为了不弄脏水,让我们先解释一下两者之间的关系。人工智能和机器学习是不能互换的。把机器学习看成是人工智能的一种产物。

人工智能当机器执行未被预先编程的任务,并以我们认为“智能”的方式来实现时,例如,一台会下棋的计算机。一台国际象棋计算机有无数预先编程的情况并执行给定的解决方案,或者一台国际象棋计算机分析棋子的位置并计算出每一个可能的移动的结果——向前移动许多步——这两者之间有很大的区别。第一个是执行命令。第二是使用人工智能。

机器学习是一种算法,当提供足够的信息时,能够识别新数据中的模式,并根据已有的信息学习对新数据进行分类。本质上,这些算法教会机器如何学习。这种方法的一个明显的危险是,如果允许机器接受它自己的假设是正确的,它可能会偏离开发人员所设想的道路。

综上所述,人工智能专注于制造智能机器,而ML则致力于创造让机器从经验中学习的算法。

人工智能阅读

这是简单的文本识别还是机器人能理解它在读什么?

AI和ML的例子

我们在日常生活中都看到过人工智能/ML的例子。其中一些我们可能已经认识了,但其他的已经变得非常普遍,我们甚至不再注意它们了。例如,如果没有机器学习,我们在搜索引擎、短信和聊天应用程序中已经习惯使用的自动填充工具就不可能存在。(因为机器会知道你的下一个词可能是什么,并提出建议。)

在一些领域,我们已经看到了人工智能和机器学习的巨大进步:自动驾驶汽车、声音识别、图像分析和医疗设备。而且,正如《少数派报告》,AI在定向营销/个性化广告领域有很多应用。

目前在网络安全方面的使用

如果不是AI和ML的发展,网络安全公司将更难检测到每天出现的所有新恶意软件。因此,利用这些快速增长的领域提供的选择对我们有利是有意义的。在必威平台APP在美国,我们已经使用了一种机器学习组件,可以检测出以前从未在野外见过的恶意软件(零日)。我们软件的其他组件执行基于行为的启发式检测,这意味着它们可能不会识别特定代码为恶意代码,但它们已经确定了一个文件或网站正在以它不应该的方式运行。该技术也是基于AI/ML。

其他所谓的“下一代”安全解决方案承诺以类似的方式保护其客户免受零日攻击和勒索,因此一些较新的网络安全公司似乎也有这种趋势。但并不是所有人都将他们的方法称为“人工智能”或“机器学习”,这使得很难确定他们在网络安全领域的主流地位。

虽然大多数公司可能都很清楚新安全策略的需求,但并没有多少公司实施AI/ML来反击日益增多的复杂恶意软件。

完美契合

让我们面对现实吧:在处理大量数据和执行日常任务时,机器比人类更好,成本更低。这正是网络安全行业目前所需要的,尤其是在每天都有大量新威胁出现的情况下。

大多数新的威胁可以很容易地划分为现有的家族或熟悉的威胁类型。在大多数情况下,对于研究人员或逆向工程人员来说,花时间仔细检查每个新的威胁是浪费时间。人类的分类,尤其是批量分类,由于无聊和分心,很容易出错。然而,机器并不介意重复执行同样的程序,而且它们比人做得更快、更有效率。

但这并不意味着他们总是做对。即使有了人工智能,也需要密切关注工作,以检查算法是否仍在所需参数范围内工作。没有人为干扰的AI和ML可能会偏离设定的路径。但有了人工智能作为合作伙伴,研究人员不必埋头于卑微的工作。

分类和…?

我们还能如何在网络安全中使用人工智能和人工智能?事实上,任何东西都可以用作机器学习算法的基础,只要你有足够的数据来检测一个模式,从而得出准确的结论。

比如说,,归因.目前,安全研究人员很难确定谁是攻击的幕后主使。他们必须获取网络攻击的证据,并将其与针对具有相似特征的目标的已知威胁相匹配。换句话说,根据使用的方法和目标是谁(或可能是谁),试图找出攻击者。

现在,任何人都可以猜测谁是袭击的幕后黑手,人们通常会将手指指向方便的方向(是俄国人!),而不是准确的方向。但在人工智能和机器学习的帮助下,我们可以更准确地确定攻击的来源。

机器学习也可以用于信息安全之外的安全项目。例如,英国政府选择了八个机器学习项目加强机场安全。被选中的项目将使用ML技术来检测乘客和行李中的威胁,比如可以扫描鞋子的爆炸材料的成像设备。这一举措旨在缩短乘客在安检过程中排队的时间。

将机器学习应用于安全工作,即使是网络安全之外的工作,既可以为那些负责维护世界安全的人,也可以为那些寻求保护的人提供一种既不牺牲准确性也不牺牲效率的解决方案。

敌对的机器学习

我们希望对ML算法及其结果的发展进行人工检查的原因之一是不可避免地会出现错误敌对的机器学习. 简言之,对抗性机器学习意味着“坏人”会想出办法将我们的AL或ML引入歧途。在网络安全中,这可能会导致检测程序混乱到允许恶意软件通过的程度。这是使用AI和ML以及更传统的检测方法的原因之一。在考虑实施人工智能或机器学习时,创建一个制衡系统有助于消除人们对该技术将因不当行为而被滥用的担忧。

总结

人工智能和机器学习已经在网络安全领域站稳了脚跟,但我们可以向你保证,这一发展还会有很长的路要走,因为这两个领域是完美的结合。每天输入的新数据量对于具有成本效益的人工处理来说太多了,如果经过适当的训练,机器更不容易出错。还有一些问题需要解决,因为AI和ML仍然处于开发阶段。人们期望人工智能和ML的实现将减少人类的工作量,但增加其挑战性。