[新闻简报] 中国AI审查系统开外挂:原来它是这样抓“敏感词”的

从农村贫困、官员腐败到讽刺军事演习,这些内容通通被塞进一个未具名的大型语言模型里。它不是拿来写作文的,而是用来识别对体制“不够友善”的言论。讲白了,就是用AI搞审查,而且效率比传统人工快上十倍以上

为什么值得关注

这不仅是技术升级,更是AI被武器化的经典案例。对于想打进中国市场的科技公司来说,这类工具可能变成新的合规门槛;而对倡议言论自由的人来说,这背后的影响可能比“翻墙”还狠,甚至连讽刺都容不下。

关键点整理

  • 数据集包含约13.3万条敏感内容样本,涵盖警察腐败、政治讽刺、军事信息外泄等。
  • 所有数据被输入AI模型,用来训练其识别“政治敏感”内容的能力。
  • 数据由安全研究员 NetAskari 发现,储存在未加密的百度服务器上,开放到任何人都能抓。
  • 涵盖议题极广:台湾、污染抗议、食品安全、金融诈骗、宗教信仰,甚至连“树倒猢狲散”这种权力转移的成语都被列为审查目标。
  • 部分输入内容使用与ChatGPT类似的提示语格式,显示该系统为现役运行中。
  • 数据最新更新时间是2024年12月,说明训练工作仍在持续推进。

放大镜下的趋势

这不是哪个实验室偷偷测试,而是国家级的舆论控制工程。中国政府正将信息控制手段,从人工审核升级为AI筛选,效率更高、尺度更精确,而且自动化程度大幅提升。文档中也毫不掩饰地标明用途:用于“舆论工作”。翻成现代中文,就是“我说了算,别人闭嘴”。

他们怎么说

加州大学伯克利分校研究员萧强(Xiao Qiang)指出:“这是国家透过LLM强化压制的明确证据。”他强调,AI比人更快、更准,不只抓敏感词,连暗示、隐喻、讽刺语都逃不过。

言下之意

这个系统不仅用于审查,也可能反过来训练其他中国AI模型。意思是,这些模型未来不光不会提六四,连你用成语、历史典故“打擦边球”都能被抓包。换句话说,中国有可能输出的是一套“自带过滤器”的AI。

然后呢?

那你该担心吗?如果你在做AI,答案是肯定的。这种系统很快会成为国家级客户的新需求。你要不要接单?接了,算不算“帮兇”?

如果你是内容平台或媒体公司,也得重新规划你的中国策略。这个市场的内容规则已经变了,而且越来越精密。

更广来看,其他威权政府很可能也会效仿,把生成式AI变成下一代防火墙。不只挡,还能主动出击清除“不对劲的声音”。

最后一口气

AI不是中立工具,它也可以变成数字极权的帮手。中国这次不是在炫耀技术,而是在展示控制的未来。看清这个趋势,或许你暂时不需要选边站,但至少该开始问自己:你想让AI帮谁讲话?

发表评论