聊天机器人大战:AI黑客接管网络安全

根据Singularityhub的说法,谷歌已经开发了一种机器学习系统,可以创建自己的加密算法,这是人工智能的最新成功(AI)在网络安全领域,但会发生什么我们的数字安全越来越依赖于智能机吗谷歌的AI附属公司,谷歌大脑,在加利福尼亚,已经取得了最新的壮举,通过神经网络相互攻击。他们设计了两套神经网络系统,分别称为鲍伯(鲍伯)和爱丽丝(爱丽丝),其任务是确保通信信息不裂由第三套神经系统EVE(EVE)。


没有人告诉他们如何加密信息,但鲍伯和爱丽丝得到了一个共享的安全密钥,而夏娃没有。


在大多数的测试中,鲍伯和爱丽丝都能很快找到一个安全的沟通方式,让夜无法破译的密码。有趣的是,这些机器都用不寻常的方法,这在人类开发出加密系统通常是罕见的。条款的可能性,这些方法都比人类设计的最好的方法要复杂得多,但由于神经网络解决问题在一个不透明的方式,很难找出他们是如何操作的。


人类很容易破译计算机生成的加密,但也难以保证系统的安全性,也可能限制其实际应用。此外,伊芙的表现也证明了人类对神经系统不善于破译加密信息的怀疑。


但是研究人员说,神经网络对于理解通信元数据和计算机网络流量分析是非常有效的,这就是为什么许多人认为机器学习可以应用到网络安全领域,因为现代人工智能非常善于发现模式,他们可以处理比人类更多的数据。


With the increasing gap in network security experts, this will be a huge market.In the black hat hacker conference held this summer, SparkCognition, a security company, announced its anti-virus software DeepArmor. 它可以利用人工智能技术跟上新的恶意软件行为,并识别变异的病毒,试图绕过安全系统。


当前机器学习仍倾向于寻找错误和不能应付人类黑客很多更微妙的攻击。因此,许多方法集中在人工智能与人类工作。荷兰安全厂商F-Secure公司和麻省理工学院的计算机科学与人工智能实验室开发的机器学习的网络分销系统,他们可以筛选出最可疑的信息网络,大大降低潜在威胁人类专家的需求数量。


IBM希望进一步探索其超级计算机的自然语言处理能力的华生。沃森可以从大量的威胁报告,学习研究论文,并通过人际网络安全专家发表的博客文章。他们希望这将帮助他们提供云服务,今年晚些时候,可以有效地作为人类一个专家级的助理。


全自动系统也取得了进展。8月,美国国防部DARPA,举行网络挑战赛,这是第一个机器之间的黑客攻击。这些聊天机器人使用各种人工智能的解决方案,自动检测软件的漏洞,或者修复漏洞或利用的漏洞,这是不是人类的帮助。


虽然它们远不是完美的,但有些机器甚至大部分时间都在睡觉。其他机器甚至偶尔破坏,他们试图保护系统。获胜的聊天机器人,混乱,在Defcon黑客大会上,人类,尽管最终失败,但结果仍然令人印象深刻。许多观察家都在复杂性和聊天机器人超人的速度感到惊讶。


这是一场军备竞赛,而黑客正在利用这些新技术。Luis Weil在罗马大学人工智能和网络安全副教授(罗马yampolskiy),说他曾遇到这样的一个程序,AI可以自动检测漏洞或预测系统中的密码。他说:我们看到非常聪明的计算机病毒可以修改无人机的代码,改变他们的行为,并渗透到目标。


人工智能的另一个优点是模拟人类的能力。Dave Palmer,Darktrace戴夫技术总监,一个网络安全公司,说他相信在不久的将来,智能的恶意软件可以使用您的电子邮件来了解你的沟通模式和创建信息,金融时报报道,有人用假鼠标动作模拟或不同的打字速度的人登陆,试图绕过安全系统访问特定的网站。


在DARPA网络挑战赛结束后,电子前沿基金会(EFF)警告说,漏洞的自动处理过程中可能会有意想不到的严重后果,研究者需要同意的行为规范来应对这些威胁。如果这些系统摆脱开发商的控制,没有人可以保证自动防御系统可以打击他们。并不是所有的计算机可以很容易地修补漏洞,尤其是那些不经常访问的或不易更新。


研究人员需要考虑这些问题:防御工具如何容易转化为攻击性工具什么样的系统最有可能成为攻击的目标他们到底有多脆弱如果这些工具失去控制,什么后果最严重


著名的专栏作家蓝紫罗兰(音)说,布什的担心太早了。他预言一个真正的人工智能黑客不会在30年内出现。过度的监管只会减慢AI技术的进展,正如混乱团队说的那样:如果你只专注于防守,你会发现你总是在追逐,可能永远不会超过攻击者。


但是随着网络的安全性越来越成为对立机器人之间的对抗,我们应该开始仔细思考,毕竟随着科技的发展和机器人操作越来越混乱,我们可能太深奥以至于无法理解,到底谁是好的坏人!