banner
当前位置:首页>微信

为黑客提供新的途径?下一个网络安全前沿:AI

发布日期:2017年07月31日 13:22  作者:Nick Kolakowski  文章来源:网易科技  [纠错]

  对于那些对网络安全感兴趣的科技专业人士来说,人工智能(AI)和机器学习代表着下一个挑战和机遇并存的前沿。从理论上讲,人工智能平台将强化网络防御——但它们也可以为黑客系统提供新的途径。

  如果你是一个敏感多疑的系统管理员或网络安全专家,你很容易想象出一个噩梦般的场景:一个超精密的人工智能,从科幻电影中跳出来,通过你的网络防御系统,进而摧毁或腐蚀系统。但负责网络防御的人类可能很快就会有一个强大的盟友:人工智能的设计,目的是防止黑客攻击。

  致力于深度学习和人工智能的发展的谷歌的一个研究项目,目前正在为数据科学竞赛平台Kaggle举办一场竞赛。目标是:让人工智能研究人员设计攻击和防御机器学习系统,能识别并对图像做出反应。

  具体来说,谷歌大脑想要技术专业人员设计两种攻击:一种“非针对性的对抗性攻击”,它会轻微修改源图像,使机器学习平台错误地将其分类。另外一种“有针对性的敌对攻击”,将修改后的图像以特定的方式进行分类。它还希望专业人士提出一种防御(“抵御敌对攻击的防御”)来对付这些攻击。

  修改源图像的关键是什么?如果人工智能平台把修改后的图像视为“真实”,它可能会得出错误的结论。例如,如果一个黑客训练了一个自动驾驶平台,将红色信号灯描述为绿色,那么它就可能导致混乱。(去年,PopularScience发表了一篇广为流传的文章,详细描述了经过修改的图像如何能损坏一个复杂的深度学习网络。)

  在OpenAI发布的一份研究报告中,将这些“敌对图像”相当于视觉错觉或幻觉。无论如何类比,很明显,这样的攻击是一个大问题,因为有很多科技公司有意利用人工智能来完成关键型应用和功能。开发能够阻止这些(以及其他)攻击的人工智能系统至关重要。

  如果这类事情让你感兴趣的话,看看Kaggle的竞争对手吧。如果你正以一种职业的身份进入网络安全领域,那么你就要准备好讨论人工智能在未来几年如何改变安全格局,以及公司正在采取哪些措施来应对新的威胁。

  【来源:insights.dice.com 作者:Nick Kolakowski 编译:网易见外智能编译平台 审校:田俊宏】

【责任编辑:邱亮】

  • 北京反邪教微博

    北京反邪教微博

  • 京都之声微信公众号

    京都之声微信公众号

关于我们编辑信箱
凯风网版权所有 京ICP备16018448号-1 
京公网安备11010802014559号