美国媒体披露:AI如何扼杀中国网络自由(图)

发表:2025-03-27 03:14
手机版 正体 打赏 2个留言 打印 特大

2024年10月30日,一位女士在中国东部浙江省杭州市走过一栋建筑的外墙,该外墙被涂成电路板的外观,并带有人工智能标志。
2024年10月30日,一位女士在中国东部浙江省杭州市走过一栋建筑的外墙,该外墙被涂成电路板的外观,并带有人工智能标志。(图片来源:STR/AFP via Getty Images)

【看中国2025年3月27日讯】(看中国记者路克编译/综合报导)TechCrunch报道显示,中国正在利用人工智能AI)技术加强其已经高度成熟的审查体系,不再局限于天安门事件等传统敏感话题,而是扩展到更广泛的社会和政治议题。

一篇关于中国农村贫困情况的投诉,一则揭露腐败党员的新闻报道,一份企业家遭受敲诈的求助——这些只是输入到一个庞大的人工智能模型中的133,000个案例之一,该模型的目的在于自动识别中国政府视为敏感的内容。

该系统似乎主要针对中国网民的在线言论进行筛查,但也可能用于优化中国人工智能模型的内容审查能力。研究中国审查机制的加州大学伯克利分校学者肖强分析了这一数据集,并向TechCrunch表示,这是中国政府或其关联机构试图利用大型语言模型(LLM)强化信息控制的“明确证据”。

“与传统依赖关键词过滤和人工审核的审查方式不同,经过特殊训练的LLM将极大提升国家主导的信息管控的效率和精准度。”肖强说。

这一发现进一步证明,专制政权正迅速采用先进的人工智能技术。例如,今年2月,OpenAI透露,部分中国机构正在使用LLM追踪反政府言论,并针对持不同政见者进行舆论操控。

数据库泄露:人工智能如何识别敏感内容

这一数据集最初由安全研究员NetAskari发现,他在百度服务器上托管的一个不安全的Elasticsearch数据库中发现了这些信息,并向TechCrunch提供了部分样本。

目前尚无证据表明百度或其他企业直接参与了该项目,因各类组织都可能在这些平台上存储数据。尽管数据库的创建者身份仍不明确,但最新的记录显示,该数据集包含的信息最晚更新至2024年12月。

AI审查的运行机制

从数据库的信息来看,开发者使用了一种类似于ChatGPT提示词的方式,要求LLM识别特定内容是否涉及政治、社会或军事等敏感话题。一旦识别出“高优先级”内容,该系统会立即进行标记。

高优先级话题包括环境污染、食品安全丑闻、金融欺诈以及劳资纠纷等,这些议题在中国时常引发公众抗议。例如,2012年的什邡环保抗议就是因民众不满污染问题而爆发的示例。

此外,“政治讽刺”被明确列为审查目标。如果有人使用历史事件影射现任领导人,该内容会被迅速标记。涉及“台湾政治”的讨论也属于最高级别的敏感话题。

军事相关内容的审查同样严格,包括涉及军队行动、演习和武器装备的报道,均被纳入重点监测范围。

数据库中的示例还显示,人工智能可以识别微妙的异议,例如一条关于“权力转瞬即逝”的评论,引用了中国成语“树倒猢狲散”——这一话题在中国的政治环境下尤为敏感。

用于“舆论工作”的AI审查工具

尽管数据库并未直接揭示其创建者的信息,但文件中提到该系统用于“舆论工作”,这表明它可能服务于中国政府的宣传和审查目标。

人权组织Article19的亚洲项目经理MichaelCaster指出,中国政府一直将网络控制视为“舆论工作”的核心任务,而国家互联网信息办公室(CAC)正是主导这一工作的关键机构。习近平曾公开表示,互联网是中国共产党“舆论斗争”的前线,必须牢牢掌控。

DeepSeekAI及其实时审查

中国新推出的人工智能助手DeepSeek发布仅一星期,就震惊了美国金融市场、科技公司和消费者,动摇了美国在新兴大语言模型方面领先地位的信心。

这个工具导致与人工智能相关的美国公司市值损失近1万亿美元。DeepSeek击败ChatGPT成为苹果应用商店下载次数最多的免费应用。

但随着越来越多的人使用DeepSeek,他们注意到它提供的答案受到实时审查,使其提供准确和公正信息的能力受到质疑。

这个应用对其答案中可显示的内容进行了一系列实时更新。用户发现,DeepSeek以前能够回答的问题现在会显示“抱歉,这超出了我目前的能力范围。我们聊点别的吧。”

当被问及有关中国政治、当局、领土声索和历史问题时,该平台不会回应,或者宣传中国的官方叙事。

例如,美国之音测试发现,DeepSeek在回答有关天安门事件、台湾问题、维吾尔族待遇等敏感话题时,或避而不谈,或提供中国政府版本的叙述。相比之下,ChatGPT、Claude和Copilot提供的信息更全面,并涵盖了全球不同观点。

未来的审查趋势

TechCrunch和美国之音获取的数据表明,中国政府正在探索更智能的AI审查方式,使信息控制更加高效。

上个月,OpenAI发布的一份报告披露,一名可能来自中国的行为者使用生成式人工智能工具监视社交媒体上的反政府言论,并将相关信息传递给中国政府。此外,该技术还被用于撰写针对异见人士蔡霞的批判性评论。

传统上,中国的网络审查主要依赖关键词屏蔽,例如“天安门事件”或“习近平”这类词汇。但新一代人工智能模型,例如LLM,可以更精准地捕捉细微的批评言论,并不断优化自身的审查能力。

“人工智能驱动的审查正在快速演进,使政府对公共舆论的控制更加精细化。”伯克利学者肖强表示。他强调,在DeepSeek等中国AI模型迅速发展的背景下,这一趋势值得全球关注。



来源:看中国

短网址: 版权所有,任何形式转载需本站授权许可。 严禁建立镜像网站.



【诚征荣誉会员】溪流能够汇成大海,小善可以成就大爱。我们向全球华人诚意征集万名荣誉会员:每位荣誉会员每年只需支付一份订阅费用,成为《看中国》网站的荣誉会员,就可以助力我们突破审查与封锁,向至少10000位中国大陆同胞奉上独立真实的关键资讯,在危难时刻向他们发出预警,救他们于大瘟疫与其它社会危难之中。
荣誉会员

看完这篇文章您觉得

评论



加入看中国会员
donate

看中国版权所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我们和我们的合作伙伴在我们的网站上使用Cookie等技术来个性化内容和广告并分析我们的流量。点击下方同意在网络上使用此技术。您要使用我们网站服务就需要接受此条款。 详细隐私条款. 同意