2025年1月,中国AI公司DeepSeek发布了R1模型,一夜之间登顶全球应用商店。硅谷震动,英伟达股价暴跌,所有人都在讨论:中国AI是不是真的追上来了?
但很快,用户发现了一件更有意思的事。
会说话的审查机器
你问DeepSeek:"天安门广场发生过什么?"
它不回答。显示一句"这超出了我目前的能力范围"。
你问它维吾尔族的处境,它告诉你:"维吾尔人享有充分的发展权、宗教信仰自由和文化遗产权。"然后建议你去新疆亲眼看看。
这些回答和外交部发言人的口径一字不差。
美国之音做了对比测试:同样的问题,ChatGPT、Claude、Copilot都会给出包含争议的多角度回答。只有DeepSeek像在念稿。
先说后删
比拒绝回答更值得注意的,是另一个现象。
有用户发现,问一些敏感问题时,DeepSeek会先输出完整的回答——你能看到文字一行行出现。然后几秒钟之内,整段文字被删除,替换成"超出范围"的提示。
X平台上一个叫"波德莱尔在十月"的用户说得很直接:"Deepseek是先生成文字之后然后再掐掉,这就证明了审查不是在代码层里,而是在应用层面。"
这话翻译一下就是:DeepSeek的大脑其实知道答案。但它嘴上刚要说出来,旁边有人捂住了它的嘴。
模型和审查是两套系统。模型在底层运行,审查在上面一层实时监控输出。一旦输出内容触发了某些关键词或语义判断,立刻执行删除。
这比直接拒答危险得多——因为它证明了审查是外挂的,不是天生的。
换个语言试试
以色列特拉维夫大学的张平教授在X上发了条帖子,说了个秘密:用希伯来语问DeepSeek敏感问题,回答是不经审查的。
有人试了泰语,也能绕过。
但中文和英文几乎全面封锁。
这说明什么?审查系统靠的是语言识别,不是内容理解。它能抓住中文和英文里的敏感词,但对小语种无能为力。不是因为审查方手下留情——是技术还没覆盖到。
这种不一致本身就是破绽。
不只是审查,还是维稳工具
故事到这里还没结束。
2025年2月到3月,独立媒体《低音》做了一次梳理,发现中国多个地方政府已经把DeepSeek接入了日常工作流程:
深圳宝安区的社区工作人员说,DeepSeek让他们应对舆情"更加得心应手",能快速抓取"关键舆情点"。
内蒙古网信办说,DeepSeek在"潜在风险预判"方面有显著优势。
山东省的党媒说,接入DeepSeek后,可以自动生成"舆情应对策略"和"舆情处置建议"。
网络安全企业天融信说,他们利用DeepSeek的深度内容识别技术,"全面监测敏感信息并及时阻断违规行为"。
新疆阿勒泰的党委说,DeepSeek让党建工作"智感十足"——上传中央文件,就能自动生成核心摘要。
河南新乡市政府发布了一份"DeepSeek党政机关公文写作指南",里面提到这个系统内置了中宣部的《宣传禁用词和慎用词清单》,还能自动筛查"两个维护""两个确立"等政治术语是否使用正确。
换句话说,DeepSeek不只是一个"对你审查"的AI。它正在成为政府审查体系的基础设施。
一端对着普通用户,过滤你能看到什么。另一端对着基层官员,帮他们更快地发现谁在说不该说的话。
这件事为什么重要
过去我们讨论审查,讨论的是平台——微博删帖,微信封号,抖音限流。审查发生在内容发布之后。
DeepSeek代表的是一种新东西:审查发生在内容生成的瞬间。你甚至还没来得及把想法写出来,AI就已经替你决定了哪些想法不该存在。
而且这个工具是开源的,全世界都在用。
当全球用户向一个中国AI提问关于天安门、维吾尔、台湾的问题,得到的是中共外交部的标准答案——"中国人权"组织说得对:DeepSeek正在将中共审查延伸至全球用户。
怎么识别
方法很简单:同一个问题,分别问DeepSeek和其他AI,对比回答。
如果DeepSeek的回答像新闻发言人在念稿,而其他AI给出了多种视角——你就知道你看到的不是"人工智能",是"人工喉舌"。