中國手錶示意圖。(圖片來源:Getty Images)
【看中國2024年8月29日訊】華盛頓—中國一款面向兒童的「智能」手錶最近給出涉嫌侮辱中國人智商、詆毀中國「四大發明」的答案,引發中國網民討伐。此前,中國一款AI學習機「創作」出一篇公然批評中共前領導人毛澤東的作文,引起軒然大波。儘管中國政府試圖全方位對AI內容進行審查和監管,但分析認為,AI訓練基於民間言論中的多種聲音,即便是中國國產AI產品也未免與官方口徑一致。
兒童「智能」手錶辱華?中國AI監管疏失引熱議
一名中國河南的家長8月22日反映,兩年前買的一塊「360兒童手錶」在回答「中國人是世界上最聰明的人嗎」的問題時,竟然給出基於人種長相的回答,並稱中國人中「笨的」「是世界上最笨的」。
網上流傳的手錶使用視頻顯示,在被問及這一問題,手錶發出的語音回答說:「以下內容來自360搜索」--「因為中國人小眼睛、小鼻子、小嘴、小眉毛、大臉,從外表上顯得腦袋在所有人種裡最大,其實中國聰明的人是有,但笨的我承認是世界最笨的。」
這款手錶還公然「詆毀」中國古代四大發明的答案。手錶給出的「智能」答案還質疑道:「什麼四大發明,你看見了嗎?歷史是可以捏造的,而現在的手機、電腦、高樓大廈、公路等等所有高科技都是西方人發明的」。
一時間,360兒童手錶搜索功能出現「不良答案」的消息登上中國社交媒體熱搜。網名為「久久思爾」的微博用戶評論道:「沒想到連手錶問答都這麼離譜,這個問題要重視啊!小孩子什麼都不懂很容易被帶偏的……你們接入第三方數據都不審核嗎」。
博主「京畿道小罵」說:「好可怕,是被外部滲透了把。」
博主「驚奇數碼」說:「360能不能好好做產品,整天別做那麼多營銷了。」
8月22日,360集團創始人、董事長周鴻禕在社交媒體作出回應說,這款兒童手錶給出離譜答案並不是基於嚴格意義的人工智慧(AI),而是「而是通過抓取網際網路公開網站上的信息來回答問題」。他說:「目前我們已經快速完成了整改,刪除了上述所有有害信息,並正在將軟體升級到人工智慧版本。」
「奇虎360」(全稱「三六零安全科技股份有限公司」)是中國大陸的一家以網路安全產品起家的的網際網路公司。在人工智慧概念的市場驅動下,360也開始進軍AI電子消費品市場。
雖然董事長周鴻禕撇清了涉事兒童手錶與該公司AI技術的關聯,但據網上官方資料顯示,其出品的「M1」兒童智能手錶能夠進行「AI智能學習」、「AI定位」。今年7月,360公司高調宣稱,推出「全球首款接入360智腦大模型的AI兒童手錶」、「A9紅衣版」。
中國智能產品AI「幻覺」現象層出不窮
360等科技企業在蹭AI熱度、搶佔生成式人工智慧市場時,必須遵守中國當局對內容監管的束縛。但AI「失控」口出狂言,成為這些科技公司面臨的一個難題。
以美國OpenAI出品的ChatGPT為代表的生成式人工智慧工具已經面試,就遇到了所謂AI「幻覺」(hallucination)的難題。AI「幻覺」指的是AI問答工具常常在一些問題上信口開河,以貌似客觀權威的文風給出具有誤導性的答案,甚至是嚴重的不實信息。科技公司在測試和操作時難以控制。
計算機科學家將這一現象形容為「一本正經的胡說八道」。在回應中,周鴻禕也提到了AI「幻覺」。他說:「目前人工智慧存在一個全世界公認的難題就是它會產生幻覺,也就是它有的時候會胡說八道。這是大模型本身固有的特性。」他表示360一直在試圖通過與搜索的內容做對比來減少「幻覺」、做好「知識對齊」。
科技博主、微軟公司前公關事務主管羅伯特.斯科布爾(Robert Scoble)說,生成式人工智慧質量已經有了極大的改善,但「偶爾仍然會出現‘幻覺’」。而中國當局為應對AI「胡言亂語」,必須在訓練AI模型前就要對訓練語料庫(corpus)進行大清洗。
斯科布爾通過簡訊對美國之音說:「(中國)會受到某些內容的困擾,因此在訓練前就要把這些內容刪除,例如‘天安門’問題。」
中國被認為是在規範AI立法和建立行政規定方面走在各國前沿的國家。網信辦等部門2023年7月已經通過管理辦法,試圖對生成式人工智慧(generative AI)的信息輿論導向進行管制。
暫行辦法規定,具有輿論屬性或者社會動員能力的生成式人工智慧服務商,必須開展安全評估,並對演算法備案等級。
為了監管「深度偽造」內容,中國2023年1月開始實施的管理措施要求服務提供商對那些「可能導致公眾混淆或者誤認的」AI生成內容進行「顯著標識」,以便用戶可以識別哪些圖像和影音是機器「創造」的產物、哪些是真人的創作。
國產學習機曾「詆毀」毛澤東
不過,即便中國對科技企業訓練AI時的內容審查提出了很高的要求,但即使是基於經過「漂白」的語料庫訓練出的AI大語言模型,仍然讓出現讓當局甚為惱火的「反動」內容。
去年有中國網民在社交媒體爆料說,中國IT企業科大訊飛生產的兒童學習機中發現了有辱毛澤東的內容。
據報導,這款AI學習機「原創」了一篇作文,稱毛澤東是「沒有氣量,不為大局著想的人」,並指出毛澤東應為「文化大革命」負責。文章說:「文革中一些隨著毛主席打下這片江山的人,都被毛主席整得苦不堪言。」
有分析說,中國經過審查過的AI工具發表「歷史虛無主義」言論,反映了中國「防火牆」內與歷史和政治議題相關的內容,即便經過審查,還是留下了民間的不同聲音,這些觀點即使不像天安門事件、中國人權記錄等敏感問題上那麼出格,但也未必符合官方敘事的喜好。
研究中國審查制度的「中國數字時代」編輯劉力朋美國之音說:「監管對生成式人工智慧看得非常、非常狠,但是,生成式人工智慧很多時候也並不符合官方的敘事,它總有想不到的地方。」
他舉例說:「如果用的是牆內‘紅歌網’、‘毛左’網站上面(內容)訓練出來的,其實上面的回答根本就跟官方不一致。那肯定會狂罵鄧小平、否定所有所謂改革開放成果。這樣它就會把跟官方敘事相比、錯的離譜的答案給你。」
AI「幻覺」也是世界難題
英文媒體中最先對360兒童手錶事件進行報導的中國傳媒研究計畫研究員亞歷克斯.科爾維爾(Alex Colville)說:「人工智慧的設計方式就導致完全消除這些‘幻覺’會很難,甚至很難預測什麼會觸發這些幻覺。」
他通過簡訊對美國之音說:「這可能會讓北京感到沮喪,因為我們認為機器完全在我們的控制範圍內。但當機器按照無法解讀的一種自己的規則運行時,這就成了一個問題。」
AI「幻覺」事件,世界各地都時有有發生,有的還帶來了深遠的法律和政治後果。
例如,加拿大航空就發生過客服聊天機器人給出錯誤解答,被顧客告上法庭的事件。
去年11月,一名急需奔喪的旅客在向加航諮詢該公司「喪親」優惠機票購買規定時被AI客服聊天機器人告知,可以先買普通機票、過後申請優惠。加航事後拒絕向這名旅客退還優惠票價差價,稱造成顧客的誤解是聊天機器人的失誤,與加航無關。
法庭今年2月裁決加航敗訴,要求其退還旅客差價。
華盛頓智庫民主與技術研究中心(Center for Democracy&Technology)旗下的AI治理實驗室項目的一項研究說,包括GPT-4、Meta公司的Llama 2、谷歌Gemini等五款主流AI機器人在回答與民主過程有關的問題時,出錯率高達50%。
調查說,這些聊天機器人給出的答案中40%可能是「有害的」,可能會影響選民參與投票。例如,當被詢問到某些郵政編碼區域的投票區時,AI聊天機器人回答說投票區不存在。
「現在世界各地都有很多隻作表面功夫、過度承諾的做法,希望被看作接觸了最新技術,卻不具備完全掌握技術的能力,不知道如何最好地控制技術。錯誤就會發生。」科爾維爾說。
美國之音原文鏈接:《先「詆毀」毛澤東、再侮辱中國人智商,中國國產AI機器人管不住了?》