人工智能(AI)技术公司OpenAI(OLIVIER DOULIERY/AFP via Getty Images)
【看中国2023年7月10日讯】人工智能(AI)技术公司OpenAI担心,未来十年超级智能的实现可能导致人类灭绝,该公司正在正在组建团队防止这一切的发生。
全球流行的聊天机器人ChatGPT的制造者OpenAI表示,人工智能将为新的超级智能提供动力,帮助解决世界上最重要的问题,并成为人类发明的最重要技术。
然而,OpenAI联合创始人兼首席科学家苏茨克韦尔(Ilya Sutskever)和OpenAI联盟负责人雷克(Jan Leike)警告,人类还没有准备好应付超级智能。“超级智能的巨大力量可能非常危险,可能导致人类丧失权力,甚至灭绝,”苏茨克韦尔和雷克在OpenAI的博客上写道,“虽然超级智能现在看起来还很遥远,但我们相信它可能在十年内到来。”
OpenAI最顶尖的科学家表示尚无计划阻止AI推动的世界末日即将到来。“目前,我们还没有一个解决方案来引导或控制潜在的超级人工智能,并防止其失控,”两人写道,“我们目前调整人工智能的技术,如根据人类反馈进行强化学习,依赖于人类监督人工智能的能力。但人类无法可靠地监督比我们聪明得多的人工智能系统。”
两人透露,公司正在招聘研究工程师、科学家和管理人员,以组建新团队,并限期四年通过解决超级智能的技术挑战来帮助预防世界末日。
OpenAI领导人表示,他们并不能保证能阻止人类潜在的终结,但仍持乐观态度。
美国国会也担忧AI的潜在风险。参议院多数党领袖舒默(Charles E.Schumer)呼吁制定管理AI的新规则,参议院司法委员会将继续举办AI监督的听证会,包括对AI可能导致网络攻击、政治不稳定和部署大规模杀伤性武器的担忧进行审查。
5月,OpenAI首席执行官奥尔特曼(Sam Altman)在参议院司法委员会作证时表示,他担忧AI工具可能被滥用来操纵人类。
参议院司法主席德宾(Richard J.Durbin)表示有兴趣创建“AI问责制度”,其中包括人工智能工具造成损害时潜在的联邦和州民事责任。
谷歌和微软等大型科技公司(OpenAI的捐助者)也呼吁对AI进行新的监管,联邦政府正在倾听。
拜登政府正忙于制定国家AI战略,白宫高级官员每周会就AI相关问题举行多次会议。
OpenAI周四表示,它正在向公众提供其“最强大”的人工智能模型GPT-4,以提高开发人员的可访问性。