智能语音助手不安全!能被人耳听不到的声音控制

2017-09-08 10:20:40
腾讯科技讯 据外媒报道,研究人员发现利用人耳听不到的声音可以控制智能语音助手,这不禁让人们开始担心那些可以用语音激活的设备是否安全。很多智能语音助手,如   亚马逊   的Alexa、   谷歌   (微博) 的Assistant以及三星和华为的语音助手,都存在这个问题。黑客可以利用这个漏洞来控制设备,命令它们执行一些非

641

腾讯科技讯 据外媒报道,研究人员发现利用人耳听不到的声音可以控制智能语音助手,这不禁让人们开始担心那些可以用语音激活的设备是否安全。

很多智能语音助手,如

  亚马逊
 

的Alexa、

  谷歌
 
(微博)
的Assistant以及三星和华为的语音助手,都存在这个问题。黑客可以利用这个漏洞来控制设备,命令它们执行一些非法任务,例如下载恶意软件或开启前门。

浙江大学的研究人员能够控制一些时下流行的设备,例如运行有Siri语音助手的iPhone和MacBook、运行有Bixby的较新款Galaxy智能手机、亚马逊智能音箱Echo以及运行Windows 10(内置Cortana智能助手)的PC电脑。

他们可以将语音指令变成超声波频率,从而控制设备。这种超声波只有设备能够听到,人耳是听不到的。安全研究人员利用这种方法能够命令iPhone“拨打号码1234567890”,或命令Macbook和Nexus 7打开恶意网站。

黑客可以同时利用硬件和软件。他们利用硬件来接收超声波,利用软件来分辨人的声音和电脑合成的声音。

在大多数情况下,只有当声源距离设备几英寸远的时候,这些设备才能够接收到声音。但是,有时候,研究人员能够在几英尺远的地方发出攻击指令。例如,他们利用

  苹果
 

智能手表Apple Watch就可以这样做。

在普林斯顿大学和康奈尔大学所做的一项类似的研究中,安全研究人员可以在两三米远的距离命令谷歌Pixel手机拍照、开启飞行模式以及向Alexa询问天气情况以及购物清单上的物品。

安全公司MWR Security上个月也进行了一项单独的研究,结果表明黑客可以利用亚马逊Echo原版中的硬件漏洞将它变成监听器。

如果用户感到担心,可以避免在公众场合使用语音指令设备,或关闭语音助手功能。(编译/乐学)

+1
0

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
评论区

    下一篇

      记者从日前召开的2017中国国际商标品牌节高峰论坛上获悉,2016年,全国工商和市场监管部门共查处各类商标违法案件2.8万余件,涉案金额3.5亿元。今年上半年,全系统查处商标侵权假冒等违法案件1.3万件,案值1.42亿元;移送司法机关案件63件,对商标侵权假冒行为形成了有力震慑。    9月2日,2017中国国际商标品牌节在广西桂林开幕。国家工商总局副局长刘俊臣介绍说,近年来,我

    2017-09-08 10:16:46