美國媒體披露:AI如何扼殺中國網路自由(圖)


2024年10月30日,一位女士在中國東部浙江省杭州市走過一棟建築的外牆,該外牆被塗成電路板的外觀,並帶有人工智慧標誌。
2024年10月30日,一位女士在中國東部浙江省杭州市走過一棟建築的外牆,該外牆被塗成電路板的外觀,並帶有人工智慧標誌。(圖片來源:STR/AFP via Getty Images)

【看中國2025年3月27日訊】(看中國記者路克編譯/綜合報導)TechCrunch報導顯示,中國正在利用人工智慧AI)技術加強其已經高度成熟的審查體系,不再侷限於天安門事件等傳統敏感話題,而是擴展到更廣泛的社會和政治議題。

一篇關於中國農村貧困情況的投訴,一則揭露腐敗黨員的新聞報導,一份企業家遭受敲詐的求助——這些只是輸入到一個龐大的人工智慧模型中的133,000個案例之一,該模型的目的在於自動識別中國政府視為敏感的內容。

該系統似乎主要針對中國網民的在線言論進行篩查,但也可能用於優化中國人工智慧模型的內容審查能力。研究中國審查機制的加州大學伯克利分校學者肖強分析了這一數據集,並向TechCrunch表示,這是中國政府或其關聯機構試圖利用大型語言模型(LLM)強化信息控制的「明確證據」。

「與傳統依賴關鍵詞過濾和人工審核的審查方式不同,經過特殊訓練的LLM將極大提升國家主導的信息管控的效率和精準度。」肖強說。

這一發現進一步證明,專制政權正迅速採用先進的人工智慧技術。例如,今年2月,OpenAI透露,部分中國機構正在使用LLM追蹤反政府言論,並針對持不同政見者進行輿論操控。

資料庫泄露:人工智慧如何識別敏感內容

這一數據集最初由安全研究員NetAskari發現,他在百度伺服器上託管的一個不安全的Elasticsearch資料庫中發現了這些信息,並向TechCrunch提供了部分樣本。

目前尚無證據表明百度或其他企業直接參與了該項目,因各類組織都可能在這些平台上存儲數據。儘管資料庫的創建者身份仍不明確,但最新的記錄顯示,該數據集包含的信息最晚更新至2024年12月。

AI審查的運行機制

從資料庫的信息來看,開發者使用了一種類似於ChatGPT提示詞的方式,要求LLM識別特定內容是否涉及政治、社會或軍事等敏感話題。一旦識別出「高優先級」內容,該系統會立即進行標記。

高優先級話題包括環境污染、食品安全醜聞、金融欺詐以及勞資糾紛等,這些議題在中國時常引發公眾抗議。例如,2012年的什邡環保抗議就是因民眾不滿污染問題而爆發的示例。

此外,「政治諷刺」被明確列為審查目標。如果有人使用歷史事件影射現任領導人,該內容會被迅速標記。涉及「臺灣政治」的討論也屬於最高級別的敏感話題。

軍事相關內容的審查同樣嚴格,包括涉及軍隊行動、演習和武器裝備的報導,均被納入重點監測範圍。

資料庫中的示例還顯示,人工智慧可以識別微妙的異議,例如一條關於「權力轉瞬即逝」的評論,引用了中國成語「樹倒猢猻散」——這一話題在中國的政治環境下尤為敏感。

用於「輿論工作」的AI審查工具

儘管資料庫並未直接揭示其創建者的信息,但文件中提到該系統用於「輿論工作」,這表明它可能服務於中國政府的宣傳和審查目標。

人權組織Article19的亞洲項目經理MichaelCaster指出,中國政府一直將網路控制視為「輿論工作」的核心任務,而國家網際網路信息辦公室(CAC)正是主導這一工作的關鍵機構。習近平曾公開表示,網際網路是中國共產黨「輿論鬥爭」的前線,必須牢牢掌控。

DeepSeekAI及其實時審查

中國新推出的人工智慧助手DeepSeek發布僅一星期,就震驚了美國金融市場、科技公司和消費者,動搖了美國在新興大語言模型方面領先地位的信心。

這個工具導致與人工智慧相關的美國公司市值損失近1萬億美元。DeepSeek擊敗ChatGPT成為蘋果應用商店下載次數最多的免費應用。

但隨著越來越多的人使用DeepSeek,他們注意到它提供的答案受到實時審查,使其提供準確和公正信息的能力受到質疑。

這個應用對其答案中可顯示的內容進行了一系列實時更新。用戶發現,DeepSeek以前能夠回答的問題現在會顯示「抱歉,這超出了我目前的能力範圍。我們聊點別的吧。」

當被問及有關中國政治、當局、領土聲索和歷史問題時,該平臺不會回應,或者宣傳中國的官方敘事。

例如,美國之音測試發現,DeepSeek在回答有關天安門事件、臺灣問題、維吾爾族待遇等敏感話題時,或避而不談,或提供中國政府版本的敘述。相比之下,ChatGPT、Claude和Copilot提供的信息更全面,並涵蓋了全球不同觀點。

未來的審查趨勢

TechCrunch和美國之音獲取的數據表明,中國政府正在探索更智能的AI審查方式,使信息控制更加高效。

上個月,OpenAI發布的一份報告披露,一名可能來自中國的行為者使用生成式人工智慧工具監視社交媒體上的反政府言論,並將相關信息傳遞給中國政府。此外,該技術還被用於撰寫針對異見人士蔡霞的批判性評論。

傳統上,中國的網路審查主要依賴關鍵詞屏蔽,例如「天安門事件」或「習近平」這類詞彙。但新一代人工智慧模型,例如LLM,可以更精準地捕捉細微的批評言論,並不斷優化自身的審查能力。

「人工智慧驅動的審查正在快速演進,使政府對公共輿論的控制更加精細化。」伯克利學者肖強表示。他強調,在DeepSeek等中國AI模型迅速發展的背景下,這一趨勢值得全球關注。



来源:看中國

短网址: 版權所有,任何形式轉載需本站授權許可。 嚴禁建立鏡像網站。



【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。
榮譽會員

看完這篇文章您覺得

評論



加入看中國會員
捐助

看中國版權所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意