Press "Enter" to skip to content

三种使用AI攻击网络安全的方法

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

专家告诫:攻击者可以用机器学习来更快地破解密码,以及建立会藏匿的恶意软件。

 

图片:iStockphoto/metamorworks 三个网络安全专家在NCSA和纳斯达克网络安全峰会上解释了人工智能和机器学习如何逃避网络安全的防护并且完成更快更有效的破坏。

 

十月六日星期二,国家网络安全联盟的执行董事Kelvin Coleman,在以 “可用的安全:影响和丈量人类行为的改变”为主题的论坛中对这一部分进行了探讨。

 

国立标准与技术学院,员工信息技术实验室的首席Elham Tabassi,是这次“网络安全中的人工智能和机器学习:善、恶、丑”讲座中的一位嘉宾。

 

查看:

 

Security threats on the horizon: What IT pro’s need to know (free PDF) (TechRepublic)

 

“攻击者能使用AI来躲避检查,藏在不能被找到的地方,并且自动开启反侦查模式。”Tabassi说。

 

Digital Guardian的数字首席信息安全官Tim Bandos认为,网络安全总是需要借助人类思维来建立更强的防御措施来抵抗攻击。

 

“AI 是助手,安全分析师和威胁侦查官是超级英雄”他说。

 

以下是3种AI和ML被用于网络安全攻击中的方式。

 

数据中毒

 

Tabsassi说,攻击者有时会瞄准用来训练机器学习模型的数据。数据中毒是通过操纵一个训练集来控制模型的预测能力,使模型做出错误的预测,比如标记垃圾邮件为安全内容。

 

数据中毒有两种类型:攻击ML算法可用性和攻击算法的完整性。研究表明,训练集中3%的数据遭遇数据中毒会导致预测准确率下降11%。

 

通过后门攻击,一个入侵者能够在模型的设计者不知情的情况下,在算法中添加入参。攻击者用这个后门使得ML系统错误地将特定的可能携带病毒的字符串识别为良性。

 

Tabsssi说毒害数据的方法能够从一个模型转移到另一个模型。

 

“数据是机器学习的血液和燃料, 用来训练模型的数据应该被予以同模型一样的重视。”她说,“用户信任度是被模型和训练的质量以及其中的数据所影响的。”

 

Tabassi 说业界需要制定一个标准和规则来保证数据的质量,NIST已经在制定国家规范以约束AI的可靠性,规范包含高阶的规则和强调准确性、安全性、偏差性、隐私性和可解释性的技术要求。

 

查看 :

 

Social engineering: A cheat sheet for business professionals (free PDF) (TechRepublic)

 

生成对抗网络

 

生成对抗网络(GANs)是由两个相互对抗的AI组成 — 一个模拟原有的内容,另一个负责挑出错误。通过二者的对抗,他们共同创立出与原先高度拟合的内容。

 

Nvidia的研究者训练了一个特殊的AI模型来重建吃豆人游戏。(https://www.zdnet.com/article/nvidia-researchers-use-ai-to-recreate-pac-man-without-a-game-engine/)这个模型只是简单地观察了几个小时的游戏,没有借助游戏引擎,Stephanie Condon在ZDNet中解释道。

 

Bandos说攻击者使用GANs来模拟一般的数据传输规律,来将分散系统的注意力,并且找到能使敏感数据迅速撤离的方法。

 

“因为有了这些能力,他们可以在30-40分钟内完成进出。”他说,“一旦攻击者开始使用AI和机器学习,他们就能自动运行这些任务了。”

 

GANs还可以用于破解密码,躲避杀毒软件和欺骗面部识别,Thomas Klimek在文章“生成对抗网络:他们是什幺,为什幺我们要害怕。”

 

(https://www.cs.tufts.edu/comp/116/archive/fall2018/tklimek.pdf)中如是描述。一个用机器学习建立的密码猜测对抗网络(PassGAN system),使用行业标准密码清单上训练模型,最终该网络能够猜测到比其他几个在同样数据集上训练的工具更多的密码。除了生成数据,GANs能创造可以躲避基于机器学习检测的恶意软件。

 

Bandos认为用于网络安全的AI算法不得不通过频繁地重复训练才能识别新的攻击。

 

“恶意软件在进化,我们也要一起进化。”他说。

 

他用“混淆”作为例子,比如一个恶意软件的大部分是由合规的代码组成的(所谓用合法代码来混淆/伪装),一个ML算法必须要能够识别其中的恶意代码。

 

僵尸程序

 

VMware Carbon Black的高级网络安全策略师Greg Foss讲道,如果AI算法被用于做决策,那幺他们也能被操控做出错误的决策。

 

“如果攻击者理解这些模型,他们就能够用他们做坏事。”他说。

 

Foss说最近的一次对加密货币交易系统的攻击就是通过僵尸程序执行的。

 

“攻击者进入系统并且发现计算机程序如何进行交易,然后他们用这个程序去迷惑算法。”他说,“这个也有很多其他应用。”

 

Foss补充说这个技术不是新的,但是现在这些算法比以更智能了,这大大提高了算法做出一个坏决策的风险。

 

可阅览更多相关文章

 

1.How to become a cybersecurity pro: A cheat sheet (TechRepublic)

 

2.Social engineering: A cheat sheet for business professionals (free PDF) (TechRepublic)

 

3.Shadow IT policy (TechRepublic Premium)

 

4.Online security 101: Tips for protecting your privacy from hackers and spies (ZDNet)

 

5.All the VPN terms you need to know (CNET)

 

6.Cybersecurity and cyberwar: More must-read coverage (TechRepublic on Flipboard)

 

原文标题:

 

3 ways criminals use artificial intelligence in cybersecurity attacks

 

原文链接:

https://www.techrepublic.com/article/3-ways-criminals-use-artificial-intelligence-in-cybersecurity-attacks/

译者简介

 

林鹤冲,墨尔本大学生物医学和信息技术双学士应届毕业生。即将进入IT咨询的领域。希望趁年轻多尝试多学习来探寻和确定个人定位。希望能多补充专业知识和实践经验,未来能有机会在智能医疗领域发光发热。希望能与大家多交流学习专业和人生的经验!

Be First to Comment

发表评论

电子邮件地址不会被公开。 必填项已用*标注