霍金教授(Professor Stephen Hawking,左)和Tesla公司的创始人伊隆•马斯克(Elon Musk)。(图片来源:合成图片)
【看中国2015年07月29日讯】(看中国记者许家栋编译)据英国《每日邮报》报道,7月28日,霍金教授(Professor Stephen Hawking)和Tesla公司的创始人、领导1000名机器人专家的伊隆•马斯克(Elon Musk)在一封公开信上警告说,今天的自动智能武器将会成为明天的卡拉什尼科夫冲锋枪(Kalashnikovs),变得无处不在和非常廉价。且人工智能可以有许多方法制造战争,甚至不需要创造新的工具就可以杀人。
他们在这封措辞强烈的信中呼吁,应该完全禁止“超出人控制的进攻性自动武器”,以防止全球性的AI军备竞赛。
智能武器将会变得无处不在
这两位专家指出,不同于核武器,人工智能武器不需要昂贵或难以取得的原材料。这意味着人工智能武器能够被所有军事强国大批量生产,从而会变得无处不在和非常廉价。
这封信称:“如果有任何军事大国推动人工智能武器的发展,一个全球性的军备竞赛几乎是不可避免的。”
专家们预测,智能武器出现在黑市和恐怖分子、独裁者和军阀手中也只会是一个时间问题。部署人工智能技术系统已经在未来几年就会成为可能,而不需要几十年。
军方进行人工智能军备竞赛不利于人类
这封信称:“对完成一些任务,如暗杀、破坏国家稳定、征服其它国家和选择性屠杀一个特定族群来说,自动武器的作用显得很理想。因此,我们认为,军方进行人工智能军备竞赛将不会有利于人类。”
这封信补充说,人工智能可以有许多方法制造战争,甚至不需要创造新的工具就可以杀人。
主要签署马斯克和霍金教授信的人包括,苹果联合创始人史蒂夫•沃兹尼亚克(Steve Wozniak)、Skype的联合创始人让•塔林(Jaan Talinn)和语言学家兼社会活动家诺姆•乔姆斯基(Noam Chomsky)
为了人类未来安全 需禁止攻击性自动武器
“生命未来研究所”(Future of Life Institute)的托比•沃尔什(Toby Walsh)教授称:“很多在我们这个领域的顶尖科学家已经签上了自己的名字。我们希望更多人能够认识到这个可怕的课题,毫无疑问,这个课题将会对整个人类产生恶劣的影响。我们可以在早期阶段就制止它,或者我们可以袖手旁观,见证在新时代发生战争。坦率地说,我们并不希望看到这些。我们的行动很简单:就是禁止攻击性自动武器,只有这样做,才能确保我们所有人拥有一个安全的未来。”
这封信与“生命未来研究所”的文件今天一起被提交给在布宜诺斯艾利斯举行的2015年“国际人工智能联合会议”(International Joint Conference on Artificial Intelligence)。
今年早些时候,同一组织曾经发布一封公开信警告民众,使用人工智能的危险性。该公开信文件称,目前的一个“广泛共识”就是:人工智能研究正在取得良好进展,将会对社会的影响越来越大。
这封信警告说:“我们的人工智能系统必须做我们希望他们做的事情。”
今年早些时候,马斯克就曾经警告说,使用人工智能控制的机器可能会导致“相当严重的危险”后果,而且可能会在短短五年之内。