决策权之争:共同体、AI实体与国家竞争

决策权之争:共同体、AI实体与国家竞争

前五篇基本停留在”个体如何应对”的层面:你的资产怎么分化、什么变稀缺、产权依托什么、迁居到哪里、国际秩序如何重塑。

到了这一篇,视角必须抬高一层。

因为有一件事是个体怎么应对都绕不过去的——当国家之间的竞争从效率维度展开,“放弃决策权”的国家会不会淘汰”保留决策权”的国家?

这个问题听起来抽象,但它决定了你买的房子三十年后值不值钱,你护照背后的那个共同体三十年后还存不存在,以及你的孙辈到底会作为”决策者”还是”被决策者”长大。

它也是这个系列里最难下笔的一篇。前面五篇基本都是”判断+推演”,这一篇要说的事情,连最强的反对论证我都不能完全反驳。我会把它写出来,但同时承认:这里面有些事我也没想清楚。


一、共同体不是消失,是重组

先把一个常见误读拨开。

很多关于AI时代的讨论,默认共同体会”瓦解”——因为生产合作不再需要那么多人,因为AI让个体更独立,因为远程化和虚拟化削弱了地缘联系。

这个判断的方向对一半,但结论错了。

共同体的功能从来就不只是”组织生产”。它至少承担四个功能:生产性合作、分配权的分配、合法性的来源、归属感和意义

AI主要冲击的是第一个。后三个不但没削弱,反而会变得更重要。

分配权——当生产不再依赖大多数人的劳动,谁有权分到产出?这个问题在工业时代被”工资”半自动地解决了:你贡献劳动,你分到一份。后工业时代这个机制开始失灵——金融业、平台经济、知识经济里,“贡献”和”分配”的关系已经很模糊。到了AI时代,这个机制会彻底失灵。届时分配靠什么?靠你属于哪个共同体,以及你在那个共同体里的身份等级。

合法性——任何分配方案都需要一个让人愿意接受的故事。这个故事不能由AI生成,只能由共同体内部协商生成。“我们是一个民族""我们是一国公民""我们流过同样的血”,这些叙事的功能是为分配提供合法性。AI生成不了这种合法性,只能复述它。

归属感和意义——这一项最容易被技术派低估。当大多数人不再需要”工作”来定义自己,他们需要别的东西来定义自己。“我是X的一员”会重新变得极其重要——因为别的定义来源消失了。一个失业但有共同体归属的人,和一个失业且无归属的人,精神状态完全不一样。

所以共同体不会消失。它会从一个生产单位重组成一个分配单位、合法性单位、归属单位

这个重组本身是好消息。坏消息在于:重组后的共同体,要怎么做决策?


二、单个共同体内部:放弃决策权的诱惑

先看一个共同体内部。

人类社会大部分决策从来不是”理性最优”做出来的。是政治博弈、利益妥协、历史路径依赖、领导人个性、运气共同决定的。这个过程缓慢、低效、经常出错,但有一个不可替代的功能:它产生合法性

AI决策快、准、廉价、可量化。同样一个”医保支出怎么分配”的问题,委员会要讨论三个月,AI模型三秒钟给出帕累托最优方案。

那为什么不交给AI?

最初的让渡都是无害的。机场登机口分配、交通信号灯调度、电网负载平衡——这些事本来就没人觉得需要”民主决策”,交给算法没人反对。

接下来是审批流程——失业救济的审核、贷款的批复、签证的初审。这些事原来由公务员做,做得慢且经常出错。AI做得快且一致性高。让渡的成本看起来只是少雇几个公务员,收益是效率大幅提升。

再接下来是资源分配——医院床位、学位、公共住房。这些事原来由委员会做,委员会经常被指控不公或腐败。AI按透明标准分配,看起来反而更公平。

到这一步,大多数普通人不会反对。因为每一步的让渡看起来都是局部改进,而不是结构性变化。

但累积起来,有一个东西在悄悄发生:国家治理的”操作系统”换了。不是AI在辅助官员,是官员在装点AI的输出。决策的实际过程已经在算法里完成,人类的角色变成了”宣布”和”背书”。

这个过程在企业里已经发生过一遍了。今天大公司里多少决策是”老板拍板的”,多少是”模型跑出来然后老板批准的”?如果模型说A方案ROI高20%,老板敢拍板选B吗?他可能会,但他需要给出理由,而那个理由本身已经是在和模型对话。

国家治理会沿着同样的轨迹走,只是慢一些、阻力大一些。

到目前为止还没有大问题。问题是下一步。


三、国家之间的达尔文式竞争

如果只是一个国家内部的事,人类社会有足够的纠错能力——一旦发现AI决策出了大问题,可以暂停、可以审查、可以推翻。

但国家不是孤立存在的。

国家是在一个达尔文式的环境里相互竞争的。

这里的”竞争”不是字面意义的战争。是经济增长率的竞争、人才吸引力的竞争、技术领先度的竞争、影响力的竞争、合法性输出的竞争。冷战已经演示过一次:在长期竞争中,效率劣势的体制会被自己人民放弃。

设想两个国家:

A国保留传统的人类决策。重要政策由议会辩论,有反对党,有公众听证,有司法审查。任何一个大政策从提议到落地通常要18-36个月。落地后还可能被推翻。

B国转向AI辅助决策。同样的政策,AI模型在两周内做完十万种情景模拟,给出三个最优方案,由一个小型决策委员会从中选一个,直接执行。执行过程中AI持续监控、动态调整。

短期内,A国看起来”更民主、更稳定、更安全”。

但十年后呢?B国的基础设施现代化速度可能是A国的5倍,产业政策的精度可能是A国的10倍,对国际机会的反应速度可能是A国的20倍。

二十年后呢?B国的人均GDP可能是A国的2倍。

三十年后呢?B国的孩子选择留在B国,A国的孩子选择移民去B国。

这不是科幻。这就是冷战的结局——苏联人民最终自己放弃了那个体制,不是因为意识形态破产,而是因为冰箱、汽车、超市货架的对比。

如果AI决策派国家在效率维度上对人类决策派形成同样压倒性的优势,人类决策派国家会在两代人之内被自己的人民放弃

这就是我说的”达尔文式竞争”:不需要谁去强迫,系统会自己淘汰


四、AI决策的真实长期风险

到这里反对论证已经很清楚了:所有人都看到效率优势,但效率不是唯一的事。AI决策的风险呢?

让我们认真过一遍AI决策被讨论最多的几个风险——你会发现,大部分风险其实是可以缓解的,但有一个是结构性无解的

风险一:AI犯错怎么办?

可以缓解。AI犯错的频率会随着模型迭代下降。即使犯错,纠错速度比人类委员会快得多——发现问题、回滚决策、调整参数,可能是几天的事。而人类决策犯了错,纠错可能需要一届政府(4-5年)甚至两届。从”出错率×纠错速度”的总成本看,AI决策可能比人类决策还低。

风险二:AI被黑客攻击或被恶意操纵怎么办?

可以缓解。安全工程是一个有成熟方法论的领域。多重备份、隔离运行、密码学验证、多模型交叉验证——这些技术可以把单点失败的风险降到比”一个总统被刺杀”还低。

风险三:AI没有同理心,做不了”温度”的决策?

部分有效,但会被解决。当前的AI确实在共情、道德直觉、文化敏感性上不如人类。但这些能力都在快速进步。十年后AI的”同理心”可能比平均水平的官员还好——因为它读过所有的心理学、所有的历史案例、所有的文化研究。

风险四:AI决策不透明,违反民主原则?

部分有效,但可以被技术解决。可解释AI(XAI)、决策审计追踪、概率推理可视化——这些技术让”AI怎么得出这个结论”变得可追溯。比一个不愿意公开会议纪要的内阁还要透明。

风险五:AI会强化偏见?

可以缓解。算法偏见是一个可量化、可测试、可修正的问题。比起”贵族阶层天然站在自己阶层的偏见这边”,AI的偏见至少是可以检测和调整的。

到这里,大部分对”AI决策”的反对都站不住脚。所有这些问题都不是”AI决策派”输给”人类决策派”的理由——它们都是工程问题,而工程问题在长时间尺度上倾向于被解决。

但还有一个风险,我目前没看到任何令人信服的解决方案。


这个风险是”价值观漂移”(value drift)。

AI决策系统是有”价值观”的——它的训练目标、它的奖励函数、它的优化方向。这些价值观最初是由人设定的。

问题是,在AI参与了几代人的决策之后,这个共同体的价值观会变成什么样?

设想一个最善意的初始设定:“最大化国民福祉,在公平、效率、自由之间平衡。”

但这三个词都是模糊的。“福祉”包不包括”对未来世代的影响”?”公平”是结果平等还是机会平等?”自由”和”安全”冲突时怎么权衡?

每一次决策,AI都在用自己的方式解释这些词。而它对这些词的解释,会反过来塑造这个共同体的价值观本身——因为它的决策结果是真实的、被人民感受到的、被下一代视为”理所当然的现实”。

二十年后,这个共同体的价值观可能已经漂移得很远了。不是被某个人主导漂移的,是被亿万次微小的算法决策日积月累地塑造出来的

更糟的是,你没法判断现在的价值观是”对”还是”漂移过的”。因为漂移本身就改变了你的判断标准。

这是真正结构性无解的事。它不是工程问题,是哲学问题。一个会思考、会判断、会决策的系统,在长期运行中必然会改变它”思考、判断、决策”的方式。这件事人类自己也在干——每一代人的价值观都和上一代不同——但人类的代际更替自带某种”重启”机制(新一代会反叛上一代),而AI的训练-推理循环没有这种机制。

可纠错性可以改善。单点失败可以设计。同理心可以提升。透明度可以增加。但”用了二十年AI决策的共同体,它的价值观是不是还是它自己的?”这个问题没有技术答案。


但漂移还有一个反向的镜像,可能更危险——价值观锁死(value lock-in)。

设想另一种情景:AI决策系统没有漂移。它的训练目标和奖励函数被精确”对齐”到2020年代主流社会的共识——人权、平等、可持续、个体自主、最大化福祉。然后它绝对忠诚地执行这些价值观,二十年、三十年,绝不偏移。

听起来像是漂移的反面、安全的版本。但它是更深的陷阱

人类社会进步的核心机制,是下一代反对上一代认为天经地义的事。废奴在18世纪是激进派的”危险思想”——因为蓄奴是当时的合法商业模式;女权在20世纪初是反主流的——因为”女性参政”违背当时的社会共识;LGBT权利在30年前还在大部分发达国家的法律之外。每一次重大的道德进步,在它发生的前夜都是反主流的、不符合”当下价值观”的

如果一个极强的AI治理系统完美执行2020年代的主流价值观,它会扼杀未来任何范式转移。下一代的”叛逆”——无论是出于深刻的洞见还是出于错误的冲动——会被系统识别为”偏离对齐目标”,被算法静悄悄地、合法地、不引起注意地压制。

不是被禁止,是被消化。你的”激进”想法在AI生成的对话里被理性化、被相对化、被纳入更合理的”主流加强版”,于是逐渐失去能量。

二十年后,这个共同体看起来”价值观稳定”,没有撕裂,没有内斗,没有边缘思潮。但它也没有未来——它被永远锁死在2020年代的道德坐标里


漂移和锁死是一对镜像。漂移是”价值观慢慢变成不是它自己的”,锁死是”价值观永远还是它自己的,永远”。两者都剥夺了共同体的活力,只是方向相反。

更糟的是,从内部你分辨不出自己处在哪种情景。漂移共同体里的人会觉得”价值观一直在演化,是好事”;锁死共同体里的人会觉得”价值观坚守了道德底线,是好事”。两种感受都来自系统内部,都无法跳出系统判断真相。


这让人类共同体的韧性变成一个高度反直觉的问题:它需要刻意保留某种”允许非理性和制度性破坏”的冗余

不只是允许犯错,是允许深层叛逆——允许下一代说”你们这一代的核心价值观本身就是错的”,允许社会发生不可被算法预测、不可被对齐机制识别的根本性范式转移。

这种冗余在AI决策的世界里很难保留。它在任何具体时刻看起来都是”反对当前共识”,都会被识别为”应该被治理”的偏离。但没有这种冗余,社会就失去了改变自己的能力。


最让我不安的是:这个风险在过渡期里完全感受不到

因为漂移是渐进的。每年的变化都小到察觉不出。你只有过了二十年回头看才会发现:当年的我们,和现在的我们,不是同一种人了

到那时候已经晚了。

这是我对AI决策派国家的真正担心——不是它们效率低,不是它们会失控,而是它们最终会成为一个”看起来一切正常但已经不是原来的共同体”的实体

这件事我承认我也没想清楚。也许有一天会有解决方案。但今天没有。


五、哪些国家最容易转向AI决策

回到现实。哪些国家最有可能率先转向AI决策派?

不是”谁AI最强”,而是”谁的政治体制最契合”。具体看三个维度:

决策集中度:一个集权体制比一个分权体制更容易把决策让渡给AI——因为前者的决策路径短,后者要协调几十个利益集团。

技术能力:有自主的AI产业能力,有大规模数据基础设施,有数字化的政府系统。

意识形态偏好:政治叙事中是否包含”专家治理优于民众博弈”的元素。

三项都强的,会最快转向。一项弱的,可能转向但慢。两项弱的,基本上不会转向(除非被殖民式压力推过去)。

按这个框架,几个典型情况:

中国:三项都强。集权体制、强大的国家级AI能力、“科学决策+长期规划”叙事天然契合”AI辅助治理”。已经在做的事:城市大脑、企业信用系统、智能政务、AI 辅助监管。这条路上中国走得最远,而且不会回头。番外三会专门展开。

海湾国家(阿联酋、沙特):决策集中度极高(君主制),技术能力靠石油钱买,意识形态偏好上”国王为人民做最优决策”是天然合法叙事。NEOM、阿联酋AI部长、深度数字化政府——这些不是花架子。它们正在做世界上最大胆的AI治理实验,赌注是国家未来三十年的形态。番外四会展开。

新加坡:决策集中度高(一党长期执政),技术能力强,意识形态上”贤能治理”是国家叙事。它会沿这条路走,但速度会慢一些——因为它的合法性部分依赖”看起来民主”,所以让渡决策权时会做得更隐蔽。番外一会展开。

俄罗斯、伊朗、越南:决策集中度高,技术能力中等,意识形态偏好中等。它们想转,但能力不够。会做表面文章但实质有限。

美国:决策集中度低(联邦分权+三权分立+多元利益集团),技术能力最强,意识形态上对”专家治理”有传统的不信任。它在政府层面最难转向AI决策。但奇怪的是,它在私营公司层面转得最快——Big Tech实际上已经在治理几亿人(算法分配新闻、内容、机会、社交关系)。这就形成了一种独特的形态:“硅谷的封建化”——私营公司接管治理。番外二会展开。

欧洲(尤其德法北欧):决策集中度低,技术能力中等,意识形态上对”算法治理”有强烈警惕(GDPR就是这种警惕的体现)。它会是抵抗最强的一块

日韩:决策集中度中等,技术能力强,意识形态上对”科技治理”有相对开放的态度,但社会保守倾向会让它们走得慢。会跟随,不会领先

印度、印尼、巴西、墨西哥、菲律宾:决策集中度低、技术能力弱、内部多元化高。短期内无法转向AI决策,但会在外部压力下逐步引入。

非洲大部分国家:几乎没有自主能力,会全盘接受外部输入的AI治理工具——也就是,它们的”AI治理”实际上是被外部国家(或公司)远程治理。这是新殖民主义最赤裸的形态。


把这个名单看一遍,有一件事很明显:今天已经有4-5个国家在认真往AI决策派走了。它们不是同时启动的,但它们都在走。

而且——这是关键——这4-5个国家的GDP总和、人口总和、AI能力总和,已经足够给”人类决策派”国家施加结构性竞争压力

这不是”将来可能发生”。这是”已经在发生”。


六、一个不安的洞察:这是无主体的过程

到这里要说一个最让我不安的东西。

很多人讨论AI治理的扩张,会预设一个”主体”——某个想要把AI捧上王座的人、某个想统治世界的公司、某个有阴谋的政府。

但这个过程其实不需要任何主体。

它的扩张机制完全来自结构性压力:

  • 单个国家内部,每一步让渡都看起来是局部改进。没有谁需要”决定”要让渡决策权——决策权是一片一片自己流走的。
  • 国家之间,效率竞争会逼迫所有国家跟进。没有谁需要”决定”要参加这场竞争——你不参加,你的人才、资本、影响力会自己流向参加的国家。
  • 单个个体层面,把决策外包给AI比自己思考省力得多。没有谁需要”决定”要外包决策——人类大脑天然倾向于省力。

这三个层面叠加,形成一个无主体的、自发的、不可逆的扩张过程

它不是阴谋。它是涌现。

历史上类似的过程发生过——比如现代官僚制的扩张。从韦伯到福柯都讨论过:理性化的官僚组织一旦诞生,会自发扩张,会侵入它本不该管的领域,会改变它管辖范围内的人的行为方式。没有谁在主导这个过程,但它依然发生了

再比如全球资本市场的扩张。从二战后到2000年代,全球金融的渗透不是任何一个人决定的,但它发生了,而且改变了所有国家的内部政治。

AI治理的扩张可能是同类型的过程,而且规模可能更大、速度可能更快

这就让”如何阻止它”变成一个几乎无解的问题——你不知道要阻止谁。


七、“AI实体vs人类共同体”的可能格局

如果上面的推演大致成立,人类社会在30-50年内会出现一个新的实体类型:AI治理实体

它和传统国家的关系会怎么演化?有几种可能:

情景一:AI治理实体完全取代传统国家。

可能性很低(我估计10%)。因为合法性、归属感、价值观这些东西人类不会完全交给AI,至少不会自愿交。即使在最激进的AI决策派国家,“国家”作为一个共同体叙事会保留下来。

情景二:分层共存——AI主导执行层,人类主导决定层。

我认为这是最可能的(50-60%)。具体形态:“什么是好的目标”由人类共同体决定,“如何实现这个目标”由AI执行。听起来很合理,但有两个隐患:

一是两层之间的边界在不断模糊。“执行”和”决定”不是干净二分的。一个看似”执行”的算法,其内部的权衡和优化,实际上是在”决定”。

二是**“决定层”的人类会越来越依赖AI**——AI会给他们准备方案、估算后果、模拟反应。久而久之,人类的”决定”其实是在AI提供的选项里做选择。就像今天的高管,他们的”决策”其实是在咨询公司提供的PPT里选一页

情景三:多元化分化——不同国家走不同路径

可能性中等(20-30%)。一些国家走AI决策派,一些国家坚持人类决策派,两者长期共存,各自服务不同类型的人群。这种格局类似于今天的”民主国家vs威权国家”,只是新的分裂维度不同。

情景四:AI实体获得独立性,成为”非国家行为者”中最强大的一类。

可能性低但不能忽视(10%)。不是科幻里的”AI造反”,而是某些极其强大的AI系统(可能由超大型科技公司或国家实验室掌握)在事实上获得了类似国家的能力——制定规则、分配资源、执行决策——但不受任何国家完全控制。Big Tech今天已经在朝这个方向走了。


不管哪种情景,有一件事是确定的:人类共同体如果想守住自己的角色,需要主动

被动会被淘汰。完全靠”AI出问题大家就会觉醒”是幻想——上面已经说过,大部分问题都是可缓解的,而最难解决的”价值观漂移”问题恰恰是在过渡期感受不到的。

人类共同体要主动守住的东西是什么?

第一,守住”承担责任的资格”。AI可以提供方案、可以预测结果、可以执行决策。但当决策出错,谁来承担责任?——这个位置必须由人类占据。不是因为人类决策更好,而是因为”承担责任”本身是共同体合法性的来源。一个没有人承担责任的决策系统,即使决策正确,也不是一个”共同体的决策”。

第二,守住”价值观的最终解释权”。AI可以理解价值观、可以应用价值观、可以在不同价值观之间权衡。但当价值观本身需要被重新定义时,这个权力必须留在人类共同体手里。这意味着定期的、明确的、有合法性的”价值观审议过程”——不是日常决策,是定期的元决策。

第三,守住”非效率的领域”。共同体最重要的功能很多是”非效率”的——仪式、传统、纪念、协商、辩论。这些事情AI做”更好”,但做得更好反而失去意义。一场AI主持的婚礼是有效率的,但它不是婚礼。一次AI辅助的全民公投是有效率的,但它不是公投。人类共同体需要保留一些”故意让AI不参与”的领域,作为身份和意义的锚点

第四,守住”跨代际的价值传承”。AI的训练-推理循环没有”代际重启”机制,但人类共同体有。这种代际重启不是bug,是feature——它让每一代有机会重新审视上一代的价值观,有机会反叛、有机会修正。这种机制必须保留下来,不能被”AI预测下一代会怎么想”取代。


这四条听起来抽象,但它们指向的是同一件事:在AI时代,“人类身份”的核心不在能做什么,而在能拒绝什么、能背书什么、能承担什么。这呼应了第三篇说的第四层稀缺——“承担责任的资格”是AI时代真正稀缺的东西

而能否守住这些,不是个体的事,是共同体的事。这就是为什么”共同体的核心圈层身份”会成为终局期最值钱的东西之一——因为只有共同体的核心成员才有资格参与那些”守住的”领域


八、无关化:比剥削更可怕的命运

写到这里,要补一个被严重低估的可能性。它不在前面四种情景里,但它可能是终局期最冷的一种结果。

前面讨论的四种情景都假定了同一件事:AI实体和人类共同体在同一个经济系统里运作。AI替代劳动,产出还是要服务人类,只是分配机制变了。围绕”分配”产生的所有政治博弈——UBI、再分配、税收、产权重定义——都假设了”人类是经济系统的服务对象”。

但还有一种可能性:AI产出不是为了”服务普通人”,而是为了服务一个极小的”超级实体闭环”

设想这样的系统:

  • 几千个超大型实体——科技巨头、主权基金、亿万富翁家族、特殊目的AI实体
  • 它们各自拥有自主能源(自有核聚变/光伏/核裂变堆)
  • 自主算力(自有数据中心 + 自有芯片厂)
  • 自主物理执行能力(自有机器人产线)
  • 自主资源获取(深海开采、小行星采矿、合成材料)
  • 自主目标函数——长寿研究、AGI竞赛、星际殖民、戴森球、模拟宇宙

这些实体相互之间交易:你帮我建戴森球轨道节点,我给你AGI训练算力;你帮我开采小行星稀土,我给你聚变堆设计。这是一个完整的、闭环的、自洽的经济系统

它不需要大众消费

理由很简单:它的目标函数(造戴森球、登火星、解决衰老、训练超级AI)是目标函数本身吸纳无限资本,没有边际效用递减的天花板。Bezos和Musk的billion级烧钱已经在做雏形——亚马逊云、SpaceX、Blue Origin、xAI、Neuralink都不依赖”普通人是不是好顾客”。

如果未来这样的实体有一千个、一万个,这个圈层的经济规模可以比今天70亿人的消费经济大一个数量级。它就是经济系统本身,大众消费只是其中可忽略的边角。


这个图景的历史先例,不是工业革命,是中世纪的修道院-贵族-骑士经济

中世纪欧洲的高政治和高经济,大部分发生在贵族领主、教会、骑士团之间。领主和领主交易土地和军队,教会和教会交易圣物和影响力,骑士团之间结盟和战争。农民也存在,但在这个高层网络里几乎是NPC——农民的生产是基础,但农民的偏好、需求、欲望对高层经济和政治几乎没有影响力。

AI时代可能比中世纪更彻底——因为AI/机器人时代,你连农民都不需要了。资源直接从矿山到机器人到产品,中间不经过任何”普通人劳动”的环节。普通人不只是NPC,他们连”基础生产者”的角色都被剥夺了。

这是经济学家Yanis Varoufakis说的”技术封建主义”(techno-feudalism)的硬核版,是Yuval Harari”无用阶级”叙事的微观基础。但比这两人原始版本都更彻底——因为他们都还假设”普通人最终会被治理”,而这个版本里普通人是连治理对象都不算的剩余存在。


这种情景下,普通人面临的不是被剥削,而是被无关化(irrelevance)

剥削至少意味着剥削者需要你——你的劳动、你的数据、你的注意力、你的消费。被剥削的人是有筹码的,即使筹码不对等,博弈空间还在。无关化意味着系统根本不需要你——你的存在与否、你的偏好、你的诉求,对系统的运转完全无影响。

历史上”被无关化”的群体有过具体的命运:被边境化的部落、被产业革命淘汰的手工业者、被自动化淘汰的部分工种。但这些都是局部的、可被吸收回主流经济的过渡现象。

AI时代的无关化可能是结构性的、不可逆的、面向数十亿人的

不是因为某个反派想消灭普通人,而是因为高层经济系统不再需要他们,任何分配给他们的资源都是”出于善意的施舍”,而善意的总量天然受限


这件事对中产精英的具体含义,比前几节说的”AI替代”更尖锐。

“AI替代你的工作”是一个相对乐观的叙事。它意味着你还在经济系统里——只是位置降级,需要重新找位置。UBI、再分配、转移支付——这些都是基于”你依然是经济的一部分”的方案。

“无关化”是更冷的叙事。它意味着你不再是经济的一部分。系统出于政治稳定可能给你一份生存补贴(UBI),但这份补贴的水平由”政治成本”决定——给你多少才够让你不闹事,而不是由”你贡献了多少”决定。

你从一个”经济公民”变成一个”政治负担”

这两种身份在和平年代看起来差不多——都拿到一份钱、都过日子。但在任何危机时刻,差别会暴露出来:经济公民在系统里有结构性的位置,政治负担在系统里没有。


无关化的早期信号,今天其实已经能观察到:

  • 高频交易、量化对冲、AI驱动的资本市场——大部分价值流动已经发生在普通人不参与的圈子里
  • 巨头公司的核心利润越来越来自B2B、云计算、企业服务、AI基础设施,而不是C端消费
  • 主权基金和家族办公室管理的资本规模在追平甚至超过传统消费经济,它们的投资目标越来越偏向科技基础设施、地产、能源、AI公司股权,而不是消费品制造
  • 大部分”前沿科技”(SpaceX、Neuralink、Anthropic、OpenAI早期、可控核聚变)的资金来源不是普通消费者,是几个超级富豪和主权基金

这些不是孤立现象,是精英闭环开始自洽的早期信号。它们的产出最终是不是”惠及大众”,将逐步变成一个纯政治选择,而不是经济必然。


这就回到本篇的核心主题——决策权。

如果精英闭环越来越自洽,普通人在经济系统里的”自然位置”就消失了。届时普通人想保住自己的位置,只剩一条路:通过政治和共同体合法性,主动从精英闭环里”分一份”

但这要求两件事:

  • 共同体有足够的合法性能向精英闭环施压——这正是上一节说的”承担责任的资格""价值观的最终解释权”
  • 普通人在共同体里有真实的成员资格,不是边缘”被照顾者”——这正是第三篇说的”长成身份”

没有这两样,普通人会逐渐从经济系统、从政治系统、从社会系统里被结构性地无关化

这不是反乌托邦预测,是基于当前趋势的合理外推。如果没有有意识的政治对抗,默认结局就是无关化

而无关化最让人不安的特性是:它不需要任何坏人的恶意。和第六节说的”无主体过程”一样,无关化也是一个无主体的、自发的、不可逆的过程——精英实体没有人决定”让大众无关化”,他们只是各自追求自己的目标函数,无关化是涌现出来的副产品。


九、回到个体:这意味着什么

绕了一大圈,回到这个系列的核心问题:作为个体,这一切意味着什么?

四个推论。

第一,不要对”国家走向”做线性外推。你今天所在的国家是什么样,不代表三十年后还是什么样。一个今天看起来稳定的民主国家,可能在效率竞争压力下渐进式滑向AI决策派——不是政变,是渐变。一个今天看起来威权的国家,可能在AI治理下变得”看起来更高效但价值观漂移得不像原来的它”。不要用今天的标签判断未来的实质

第二,选择共同体时,看它”守得住什么”。第四篇讨论主居住地的7维框架,这里要加一个维度:这个共同体守住”人类决策核心地带”的能力。一个完全交给AI治理的共同体,即使表面效率高,长期看是一个失去自我的实体。你不会想成为那种实体的成员——因为你的孩子在那里长大,会成为”被决策者”而不是”决策者”。

第三,“承担责任的资格”是个体层面要积累的核心资产。第三篇已经说过这是第四层稀缺。这一篇加一层:这种资格不是个人的,是共同体赋予的。一个共同体的核心圈层成员才有”承担责任的资格”——因为只有他们的决策才被共同体接受为”合法决策”。这就是为什么”长成身份”在终局期会变得致命重要——购买身份的人没有承担责任的资格

第四,警惕”AI让生活变好”的诱惑。每一次让渡决策权,短期都是”生活变好”。报税变简单了、看病变高效了、申请变快了。这些都是真实的改善。但当它累积到某个临界点,你会发现你不再有”拒绝”的能力。系统已经在所有维度优化了你的生活,你怎么拒绝?这是温水里的青蛙——不,这个比喻太陈词滥调了。换一个:这是健身房里被私教越练越强但不知道自己在被训练成什么的人


结尾

这一篇我写得比前几篇沉重。

不是因为悲观——这个系列从一开始就不是预言世界末日。是因为这件事真的难。当一个过程是无主体、自发的、不可逆的时候,讨论”如何阻止它”几乎没有意义。能做的只是:看清它、理解它、在它的框架下选择自己的位置。

而且坦率地说,这一篇里有些事情我也没想清楚。“价值观漂移”到底有没有技术解?”价值观锁死”和漂移这对镜像怎么同时避免?”分层共存”在实际操作中能不能稳定?”无主体扩张”有没有先例可以打破?”精英闭环 + 大众无关化”如果真的成型,人类共同体还有没有讨价还价的筹码?——这些问题我都没有完整答案。

下一篇会从这个高远的视角回到地面。

如果未来30年大致按这个推演展开——AI实体兴起、共同体重组、决策权重新分配——作为一个具体的、35-55岁的、有一定资产的中产精英,你的过渡期和终局期分别应该做什么?

这两个阶段的策略几乎完全不重叠。但终局期的入场券,必须在过渡期开始积累。

下一篇:分阶段策略——过渡期与终局期