谷歌计算机会不会从人类那里加密信息

据每日邮报报道,Stephen Hocking,英国科学家警告说,史蒂芬(霍金Elon)和美国连续企业家Ilon Mask(Elon)有AI变得太聪明和危险,甚至会导致人类的灭绝。现在,谷歌团队已经接近这个噩梦假设一步,教学如何在神经网络系统是保密的。计算机系统已经学会了如何保护自己的信息从人偷看。Martin Abadi,从谷歌脑小组研究员,大卫·安德森发表了一篇论文(David Andersen),说明计算机网络确保信息安全的加密技术,简单的Martin Abadi,谷歌的研究小组重点研究领域深度学习D使用大量数据进行研究。





谷歌的电脑系统是基于人类大脑神经网络的工作原理设计的,也就是所谓的;神经网络;研究人员在论文中写道:我们想知道神经网络可以学习使用键来保持对其他神经网络信息。具体来说,我们要确保安全是一个多智能系统保证。


研究人员说,他们创建了一个由爱丽丝(爱丽丝)和鲍伯(鲍伯)组成的神经网络系统,同时限制了第三方神经网络,名为夏娃,用来拦截爱丽丝和鲍勃之间的交流。爱丽丝、鲍伯和爱娃是参与这项实验的计算机科学家和物理学家的名字。


为了保证信息的保密性,爱丽丝不得不将其纯文本信息转换成无意义的代码,这意味着任何截取信息的人,包括爱娃在内,都无法理解信息的内容,当然,鲍伯可以理解爱丽丝的密码,但其他人却不能理解。


起初,爱丽丝和鲍伯不善于隐瞒信息,但经过多次实践,他们变得越来越好了。研究人员说,这是一个巨大的突破,因为神经网络的设计不擅长加密信息。


Jo Steulonnas,乔美国公司PKWare,加密,说:这种规模的神经网络已经在最近几年,我们已经找到了它的起点。


但不久前,霍金曾警告说,它可能是AI的自我意识,这可能是人类的意识的冲突。这表明,强大的自动武器是很危险的。但如果有足够的研究是为了避免危险,AI可以帮助人们消除疾病和贫穷。