| | | 2017年09月01日 星期五
4
城事

不只是“偷个密码,窃取手机钱包”那么简单,还可能涉及人身安全

谁来守护人工智能的“后门安全”


    ■本报记者 徐晶卉

    只需要用P图软件稍稍修改一下照片,就能骗过人脸识别系统,登录他人的账号———裹挟着强大的深度学习能力与“天生自带”的进化属性,人工智能成为当下最“潮”的产业。但是,人工智能可能会爆发出来的安全问题,已经不只是“偷个密码,窃取手机钱包”那么简单,还可能涉及人身安全。

    “安全性是部署人工智能的最大挑战。”美国加州大学伯克利分校计算机系教授宋晓冬在多个场合如此强调。如果把人工智能比作打开前门的钥匙,那么“后门安全”的守护更需要被重视。

    人工智能容易“聪明反被聪明误”

    你对人工智能的第一印象是什么?大部分人都认为它很聪明———基于深度学习的能力和速度,“阿尔法狗”已经连续打败全世界最顶级的多位围棋选手,能不聪明吗?

    但在宋晓冬看来,“聪明反被聪明误”恰恰是人工智能的大问题,“计算机在深度学习时很容易被欺骗。”在上海纽约大学的理解未来讲座上,宋晓冬认为,人工智能领域的一大安全问题,表现为可以“攻击人工智能的学习系统,让其不能产生正确或需要的结果”。

    这位深度学习与安全领域的专家,过去一段时间与她的团队对深度学习里的对抗性例子进行了研究。她们发现,在进行一些技术干扰后,计算机在进行深度学习时容易被欺骗,比如一个十分明显的“禁止停车”标志,如果用技术手段稍稍误导,普通司机完全不会受到影响,而聪明的计算机就会解读为“限速”标志。

    当人工智能与汽车“捆绑”在一起,很小的失误也会带来巨大伤害。由于自动驾驶系统的缺陷,特斯拉Model S汽车曾发生过著名的车祸事件。去年,360汽车安全实验室“天行者团队”与浙江大学USSlab就曾向特斯拉报告了其自动驾驶的漏洞———通过“欺骗”特斯拉Model S上的超声波传感器、摄像头和毫米波雷达,令这套世界上最先进的ADAS系统失灵。特斯拉由此进行了技术升级。

    上海交通大学软件学院教授陈海波认为,现在深度学习能做到的仅仅是知其然,而不知其所以然,这就导致了人工智能的脆弱性。

    降维攻击暴露人工智能软肋

    面对一些高段位的安全威胁,人工智能可以“无懈可击”,但是一些降维攻击却能把人工智能打个措手不及。

    王海兵所带领的GeekPwn实验室上个月正在研究一些人脸识别的门禁。人脸识别系统是人工智能领域应用中比较成熟的系统,许多重要场合已经采用这种方式作为验证手段。但是王海兵发现,市面上大量的人脸识别门禁系统都采用同一架构,其在网络上有一个管理端,可以进行管理,“造成的结果是,攻击者只要通过网络攻击,就可达到任意人脸都可以通过这个门禁的效果。”

    360安全专家安扬认为,应用市场鱼龙混杂,导致人工智能系统本身存在缺陷,也是人工智能领域最大的安全挑战。央视“3·15”晚会上展示的用P图法骗过人脸识别系统、登录他人账户就是其缺陷的体现。去年,美国北卡罗来纳大学的一个研究团队凭借在社交媒体上收集到的若干照片,利用特殊的电脑合成和渲染技术,在手机上生成一个平面化3D模型,随后他们利用这个模型进行测试,发现有高达4/5的被测安全系统在55%到85%的被测时间内都可以被轻松骗过。

    人工智能安全需要协同作战

    作为网络安全的“守门员”之一,360公司一直在关注人工智能领域的相关安全问题。安扬告诉记者,针对应用了人工智能的产品,国内近期出现了多款机器人被黑客攻击的事件,涉及家用机器人、工业机器人等产品。

    这也是BroadLink高级副总裁康海洋比较担忧的问题。BroadLink是一家专业从事智能家居的创业企业。康海洋说,2014年,消费者家里空调、插座联网率不到1%,但是到了今年,这个比率提升得非常快,安全已经成为智能家居往前推进时的最大瓶颈,而且这个安全威胁已经从虚拟世界扩展到用户家里最隐私的部分。康海洋透露,目前他们的解决策略是一直跟安全界的“白帽子”协作,来提高家居防护水平。

    “人工智能的安全性需要从早期就开始考虑。”宋晓冬说,这是跨学科任务,需全社会共同参与。安扬则认为,人工智能的安全问题需厂商与安全社区积极合作,快速响应修复漏洞,才能不断提升系统安全性。

上海报业集团 版权所有