一个不太体面的比喻
"工贼"这词不好听,但你仔细品品,它描述的那个角色在当下的 AI 浪潮里正在被大规模制造。
公司让你拥抱 AI,用 Copilot 写代码,用 ChatGPT 写文档,用各种 agent 搞自动化。你照做了,效率翻倍,季度汇报上你是"数字化转型标兵"。很好。但你有没有想过一个问题:你每一次漂亮的 demo,都在帮管理层完成一个论证——"看,一个人加个 AI 就能干三个人的活,我们确实不需要那么多 headcount 了。"
你不是在提升自己,你是在帮资方给整个职业的劳动力重新定价。
当然你可能觉得这话说得有点重。没关系,我们来看看博弈结构,你就知道这不是道德审判,而是数学。
三层囚徒困境,跑都跑不掉
这事儿最恶心的地方在于,它不是一个囚徒困境,而是三个套在一起的。
第一层,你和你同事之间。 你不用 AI,你同事用。他一天搞定你三天的量,下次裁员名单上是你。你的理性选择:用。
第二层,你公司和竞争对手之间。 你们公司不推 AI,对手推了。更少的人、更低的成本、更快的交付,你们被打趴下只是时间问题。公司的理性选择:全面推广,越快越好。
第三层,国家之间。 你的国家搞 AI 限制,国际对手不限制。产业效率差距拉开,经济竞争力下滑,地缘博弈中直接落入下风。国家的理性选择:不能禁,甚至还得补贴加速。
三层套娃,每一层都指向同一个 Nash 均衡:必须用。你个人扛不住,公司扛不住,国家也扛不住。任何一层的单方面克制,结果都是克制者先出局。
这就是潘多拉的魔盒。打开了就关不上。所有人都被锁死在同一条赛道上——每个参与者都在"理性"地狂奔,每一步都在加速走向那个谁都不想要的终局。你知道尽头是什么,但你不敢停,因为停下来的人死得更快。
更恶心的是,"无法协调"这件事不是天然的——它是被设计出来的。公司搞 AI 推广的时候最爱干的事就是制造个体竞争:谁用 AI 用得好谁就是高绩效,谁不用谁就是"抵触变革"。这不是在推广工具,这是在系统性地瓦解你们集体行动的可能性。
程序员的切肤之痛
程序员对这个困境感知最直接。
Cursor、Copilot、Claude Code 这些东西确实好用——我自己天天用(对,我也是共犯)。一个资深工程师加上 AI coding agent,单位时间的输出量顶过去一个小团队。但问题来了:当老板看到一个高级 + AI 就能搞定的活,他为什么还要养三个中级?
行业里已经在发生的事:初级岗位招聘断崖式下跌,code review 从技术讨论退化成 AI 输出的橡皮图章,"T 型人才"变成了"一个人 + 一堆 agent"。你越是卖力展示 AI 能替代人力,你周围的初级同事就越快被优化掉。等到中级也被证明可以由"高级 + AI"替代的时候——你猜你还安全吗?
这不是假设。2024 到 2025 年科技行业的裁员潮,相当一部分打着"AI 提效"的旗号。被裁的人里面,有多少曾经是公司内部的"AI 推广标兵"?讽刺吗?一点都不,这就是博弈论告诉你的必然结果。
泛行业:换个皮,一样的剧本
把"程序员"换成设计师、文案、翻译、客服、会计,剧本完全一样。
设计师用 Midjourney 炫技,亲手论证了"不需要那么多设计师"。翻译用 DeepL + GPT 提速十倍,亲手论证了"不需要那么多翻译"。客服接入 AI 应答,亲手论证了"不需要那么多客服"。每个行业的"创新先锋"都在用实际行动证明自己所在岗位的可替代性。
管理层当然不会跟你讲博弈结构。他们会跟你说"拥抱变化","提升个人竞争力","不要被时代淘汰"。这些话术的本质就一件事:把结构性问题个体化。让你觉得这是你个人能力的问题,而不是劳资利益分配的问题。
那 UBI 能救吗?
有人说,搞个 UBI(Universal Basic Income,全民基本收入)不就行了?大家都有饭吃,囚徒困境的恐惧感不就消除了?
想多了。
UBI 能兜底,让"右下角"的结果不至于是赤裸裸地饿死。这算是个安全网,聊胜于无。但三层囚徒困境的驱动力根本不是"怕饿死"——而是竞争优势。你觉得程序员会因为每个月能领个基本收入就不卷了?不会的。UBI 给的是底线,不是你现在的薪资水平。你怕的不是没饭吃,你怕的是从年薪百万滑落到社会最低保障线上,眼睁睁看着你的房贷、你孩子的学费、你十几年攒下来的生活水准全部崩塌。
更关键的是,UBI 完全不触动公司层和国家层的博弈。企业之间的效率竞赛不会因为员工有 UBI 就停下来,国家之间的产业竞争更不会。UBI 是个分配方案,但它不改变博弈结构本身。囚徒还是囚徒,只是牢房里多了张床垫。
所以 UBI 不是解药,充其量是止痛片。而且这个止痛片还不一定开得出来——钱从哪儿来?对 AI 收益征税?好,那你就进入了另一个囚徒困境:哪个国家先征 AI 税,哪个国家的 AI 企业就先跑路。又绕回来了。
那到底怎么办?
说实话我也没有什么好答案。但有几句话可能不太中听:
拒绝 AI 不是出路。 前面三层博弈已经说清楚了,单方面不合作的人死得最快。勒德主义从来不管用,织布工砸毁机器没有阻止工业革命,只是把自己从工人变成了失业者。
政策管制几乎不可能。 在国家竞争这一层,任何单方面限制 AI 的经济体都是自废武功。大家在"AI 安全"的名义下做做样子,底层的军备竞赛从来没停过。
UBI 也不是答案。 前面说了,它治标不治本,而且征税逻辑本身又是一个新的囚徒困境。
真正的问题是分配。 AI 带来的效率增量,应该流向谁的口袋?这个问题需要集体行动才能回答。但现状是大多数行业的劳动者根本没有有效的集体谈判机制。程序员尤其如此——高薪制造的幻觉让这个群体长期以为自己跟资方是"合作伙伴关系"而不是雇佣关系。等 AI 开始戳破这层窗户纸的时候,才发现自己既没有工会,也没有任何制度化的议价工具。
打破囚徒困境在博弈论里有个经典解法:重复博弈中的惩罚策略。翻译成人话就是,劳动者需要某种形式的组织和团结,而不是在"谁更会用 AI"的内卷赛道上互相踩踏。但说起来容易,做起来嘛……你懂的。
最后
AI 是好工具,这句话没问题。但"工具中性论"是最大的骗局——当工具的推广方式被刻意设计成瓦解集体协调的手段时,工具就不再中性了。
每一个在公司内推中积极表演"AI 提效"的人,都可以想想:你提的效,最终进了谁的口袋?
你在做 AI 时代的"先进个人",还是在做囚徒困境里的最优背叛者?
这两件事,很可能是同一件事。魔盒已经打开了,问题是你在狂奔的路上,有没有抬头看一眼尽头是什么。