亚马逊智能音箱Echo(图片来源:Pexels)
【看中国2018年5月31日讯】(看中国记者闻天清编译)它们一直在聆听着你与他人的对话,也一直处于互联网在线状态中。你可知道当亚马逊(Amazon)的虚拟语音助理亚历克瑟(Alexa)如果失控时会发生什么?它是否会在没有得到你授权的情况下分享私人谈话?如今,这种可能性已经成为现实了。
据美国华盛顿电视新闻台KIRO7报道,来自俄勒冈州波特兰市(Portland,Oregon)一名女士丹妮尔(Danielle)说,她家中的亚马逊智能音箱Echo虚拟语音助理亚历克瑟录制了她与丈夫的一段对话,然后在他们不知道的情况下,将这段对话录音分享发送给了丹妮尔丈夫在西雅图的一个员工。
丹妮尔的家中摆放了几个亚马逊智能音箱Echo,通常是用来控制房屋冷暖、灯光和保安警报系统。丹妮尔表示,在他们谈话的时候,亚马逊智能音箱Echo就在她旁边,当时音量设置为7(最大音量设置为10),但丹妮尔从未被请求得到她的授权许可之后发送出这段录音。直到有一天,丹妮尔的丈夫接到了西雅图员工的电话,告知说收到了他们夫妻谈话的录音。
随后,丹妮尔停止使用家中所有的亚马逊智能音箱Echo,并切断它们的电源,她表示自己再也不敢使用亚马逊智能音箱Echo了。她说:“我再也不会把那个智能音箱插上电源了,再也不相信它了。”
丹妮尔联系了亚马逊公司,要求对此事件进行调查。
对此,亚马逊公司发表了一份声明称,智能音箱Echo错误地将丹尼尔与她丈夫闲聊的话语当作了一系列的请求和指令,最终按照“指令”将录音信息发到丹尼尔丈夫的员工那里。
据美国《纽约时报》报导,这不是亚马逊智能音箱Echo首次出现这种非同寻常的错误。在今年3月份,由于数名用户反馈,在没有指令的情况下,有时突然会听到智能音箱Echo虚拟语音助理亚历克瑟发出的笑声。亚马逊也提供了类似的解释,在极少数情况下,虚拟语音助理亚历克瑟错误地听到“亚历克瑟,笑”的指令。最终,亚马逊将该指令用语改为:“亚历克瑟,你会笑吗?”
5月份,加州大学伯克利分校科研人员在一篇发表的论文中称,他们已经证明虚拟语音助理的技术也可能会被操控和利用。科研人员表示,在没有人注意的情况下,他们能够将一些指令隐藏在语音用语指令文本中,虚拟语音助理,如苹果的Siri、谷歌助理和亚马逊的亚历克瑟等都能理解这些指令并去执行。
丹妮尔的遭遇引起了网友的忧虑,他们在社交媒体上用幽默的方式表达了自己对这种智能产品的担忧。
用户:“亚历克瑟,你在监视我吗?”
亚历克瑟(咳嗽):“没有,当然没有。”
用户:“好,谷歌,去问问亚历克瑟、Siri有没有在听我的谈话。”
微软旗下虚拟语音助理Cortana说:“如果你没干什么坏事的话,就不需要担心什么。”