新闻中心

EEPW首页 > 消费电子 > 业界动态 > Google AI能自行发展加密技术 防止第三方窥探

Google AI能自行发展加密技术 防止第三方窥探

作者:时间:2016-11-03来源:Digitimes收藏

  近年积极开发自有人工智能()技术,最新研究报告称该公司打造的实验系统已具备可自行设计加密演算法的能力,借此能够达到保密目的,避免第三方窥探内容。

本文引用地址:http://www.eepw.com.cn/article/201611/339654.htm

  这项研究成果称为“用对抗神经密码技术学习安全通讯”,旗下 Brain研究团队人员Martin Abadi及David Andersen在报告中,介绍神经网路如何自行发展简单加密技术以防止第三方窥探的技术,且过程中无需外部输入特定加密演算法即可进行。

  这套实验Google Brain设计了“Bob”、“Alice”及“Eve”三个神经网路,由Alice及Bob之间彼此收发讯息,训练Alice将一串16位元由0与1组成的讯息传送给Bob,Bob则必须尝试对发送的讯息解密,但不让Eve获得这组讯息内容,要由Eve试图窥探并解码该讯息。Alice与Bob之间则拥有一个共享金钥,即所谓的对称加密。

  研究人员只给定上述假设实验情况,未指定Alice与Bob之间要以何种方法传送讯息,所以上述所有都不知道如何进行加密也不清楚应使用何种加密技术,仅透过可衡量损失及错误程度的损失函数来判断自身表现,并不断演进出正确的方法。

  Alice、Bob及Eve都是采用相同的混合与转换神经网路,初始化皆是独立进行,Google研究人员在单颗绘图芯片(GPU)系统中以TensorFlow反覆进行这项实验,由Alice不断发送讯息给Bob接收及解读,同时Eve也尝试进行解读。

  起初Bob及Eve的错误率都很高,但随着测试次数增加,两者的错误率都逐渐下降,约进行到5,000~1万步(step)之间的测试次数后,Eve的错误率开始减少,Bob更是大幅下降,不过1万步后当Alice与Bob改变加密方法后,Eve的错误率又开始攀升。

  到了1.5万步后Bob的错误率已降至几近0,Eve的错误率则仍有一定程度,由此显示Eve只是在进行随机猜测,Alice与Bob之间则已改善及发展出彼此能够秘密通讯、防止Eve偷窥的方式。

  Google研究人员未详细分析Alice与Bob之间设计的是何种加密演算法,最后仅得出结论指出,神经网路确实能够进行通讯内容传输的自我防护,且只需与Alice说明保密的重要性高于一切即可,无需事先告知要以何种加密演算法进行保密。另一方面从Eve的实验结果看来,Google研究人员则认为神经网路成为密码分析专家的机率不高。未来Google还将针对其他加密演算法进行实验。



关键词: Google AI

评论


相关推荐

技术专区

关闭