来自美国和中国的研究人员展示了隐藏恶意语音指令的可能性在亚马逊的Alexa的音乐,苹果的Siri,谷歌助理。
数字助理安全问题并不新鲜。然而,最近的一个是不同的,因为它可以使受害最谨慎的用户,作为人耳不能察觉阈下语音指令。
恶意的数字助理隐藏在音乐的语音命令
在过去的两年中,研究人员曾在大学的实验室只隐藏命令,Siri, Alexa,和谷歌的助手会回升,而不是人类。
2016年,来自乔治城大学和加州大学伯克利分校的学生表明,可以隐藏命令在白噪声来自扬声器或YouTube视频智能设备执行的功能,如打开网站和激活“飞行模式”。在这项研究的最新发展,加州大学伯克利分校的学生确定一种隐藏命令在音乐或录音口语文本。
“我们想知道如果我们能更隐秘的,”说,加州大学伯克利分校第五年计算机安全Nicholas Carlini博士生,研究的作者之一发表网上。该集团提供的样本歌曲语音指令一直在嵌入式数字助理做特定的事情,包括访问网站,打开GPS,和打电话。
黑客已经使用方法吗?
根据Carlini,没有证据表明攻击者已经开始使用这种方法在现实世界中。然而,他补充说,这可能只是一个时间问题,与Carlini假设黑客已经开始尝试复制他的团队的工作。
而未被发现的语音指令证明了研究人员是无害的,攻击者如何利用这项技术是很容易的。万博体育登录首页他们可以有数字助理打开门的智能家居,通过银行转账应用,和购买物品从网上零售商,在用户不知情的情况下发生了什么事。
普通用户谁想要保护从最早的攻击现在有一些可供选择的方法。对设备的所有者亚莉克莎和谷歌的助理,他们可以利用可选功能,锁访问个人信息根据特定用户的语音模式。与此同时,iPhone和iPad用户默认的保护Siri要求iOS设备解锁之前被允许访问敏感信息。
为亚马逊、苹果和谷歌来保护他们的客户会进一步发展语音认证措施,以便设备只会识别命令从真实的用户。