Cointime

扫码下载App
iOS & Android

当一篇AI文章吓坏华尔街时,他们真正害怕的不是失业

个人专家

周一早盘,华尔街做了它最擅长的事:先卖,再想。

纳斯达克下跌 1.4%,标普 500 下跌 1.2%。IBM 暴跌 13%,Mastercard 和American Express 也显著下挫。把市场推向这阵恐慌的,不是美联储,不是就业报告,也不是哪家科技巨头的财报,而是一篇文章。它的标题听起来就像是故意写给交易员的噩梦:《The 2028 Global Intelligence Crisis》。按文中设定,这不是一份普通研报,而是一份“来自 2028 年 6 月 30 日”的虚拟宏观备忘录,描述 AI 如何从效率工具演变为系统性金融危机;文章模拟的终局包括失业率升至 10.2%,标普 500 较 2026 年高点回撤 38%。这篇文章发布后迅速传播,并在 2 月 23 日引发了美股显著波动。

市场之所以会被一篇文章刺穿,不是因为市场真的相信了它的每一个数字。市场从不需要完全相信一个叙事,市场只需要被提醒:某种原本说不出口的恐惧,已经有了可交易的语言。

Citrini 的文章之所以有效,不在于它“预测”了什么,而在于它命名了什么。它给一种正在形成的感受起了名字:Ghost GDP。文章的核心设定是,AI agent深入企业后,劳动生产率飙升,名义 GDP 依然强劲,但财富越来越集中在算力和资本持有者手中,不再进入现实消费循环;接下来是消费崩盘、信用违约、住房与消费信贷承压,软件与咨询行业先倒,再向私募信贷和传统银行体系蔓延。

Ghost GDP 是一个好词,因为它抓住了一个新时代最危险的悖论:增长还在,但增长开始失去消费者。

过去两个世纪,人们习惯于把技术革命理解成供给端的故事。蒸汽机、电力、流水线、互联网——它们首先被讲述为更高效率、更低成本、更多产出的胜利。即便这些革命造成失业、焦虑和财富重分配,主流叙事依然坚信,技术最终会在更大的规模上重新雇佣、重新分配、重新组织社会。技术的短期残酷,被长期繁荣的承诺包裹住了。

AI 让这个旧故事第一次看起来不那么稳固。

因为 AI 攻击的不只是“工具预算”,还越来越直接地攻击“劳动力预算”。Sequoia 2025 AI Ascent 的总结说得非常直白:AI 的机会不只是重做软件市场,而是在重构全球劳动力服务市场,从“卖工具”变成“卖结果”。这句话的另一面几乎令人不安:如果企业购买的不再是帮助员工工作的软件,而是直接替代一部分员工的结果,那么 AI 的第一性后果就不只是“效率更高”,而是“工资如何分配、消费如何维持、谁还算这个经济系统里有购买力的人”。

换句话说,华尔街真正害怕的,不是 AI 会犯错,而是 AI 会太成功。这才是《The 2028 Global Intelligence Crisis》让人坐直的地方。它不是在讲机器觉醒,不是在讲人类灭亡,甚至也不主要是在讲失业。它在讲一件更资本主义、也更现代的事:如果企业变得更高效,但家庭部门变得更虚弱,会发生什么?

答案是,一个社会可能在统计上增长,在现实里失血。

一个国家可能有更高的生产率,却有更脆弱的消费基础。

一个市场可能因为利润率改善而兴奋,又因为支撑利润的那层需求被抽空而恐慌。

这不是科幻,这是宏观经济学。

但如果把问题停在这里,得到的只会是一种高质量的焦虑。接下来真正重要的问题不是“AI 会不会太强”,而是:当 AI 真的很强时,社会靠什么接住它?最流行、也最偷懒的答案,是“慢一点”。不要让 agent 那么快进入企业,不要让自动化那么快重写组织,不要让技术在制度没有准备好的时候跑得太远。这种冲动可以理解,但它误把 AI 当成一个可以用减速来处理的工具问题。实际上,AI 越来越不像一个工具问题,而更像一个秩序问题。

因为一旦 agent 进入支付、协作、执行、记忆和决策层,真正的挑战就不再是某个模型会不会胡说八道,而是:当网络上存在数亿、数十亿个 agent 时,谁来给它们写规则?

现代互联网对此已经有了两种默认答案。

第一种答案是平台答案。平台给身份,平台给权限,平台给支付接口,平台给信誉系统,平台给审查边界。平台托管一切,也定义一切。它最大的优点,是平滑、高效、可管理;它最大的危险,也恰恰在这里:如果未来 agent 文明建立在这种路径上,人类得到的不会是一个开放社会,而只是平台帝国的升级版。规则不会写在宪法里,只会写在服务条款里。

第二种答案听上去更自由:把一切还给个人终端。每个人自己管理自己的 agent,自己处理权限、记忆、支付、安全和协作。这种想象很符合硅谷式的自由主义美学,但它的问题也很简单:绝大多数人根本没有能力长期治理一个高能力 agent,更不用说治理一群会彼此调用、彼此支付、彼此继承状态的 agent 网络。终端主权在这里很容易退化成终端裸奔。

如果平台答案太像帝国,终端答案太像无政府状态,那么第三条路就不再是可选项,而是文明问题本身。

这正是 LazAI 值得认真对待的地方。不是因为它有多少技术模块,而是因为它提出了一个更少被讨论、却更像未来的主张:把 Web3 这些年在身份、资产、支付、共识、证明和治理上的社会实验,升级成 AI 时代的制度机器。LazAI 把这个目标说得并不含糊。它不是在“制造更聪明的奴隶”,而是在试图培育“平等的数字公民”:这些 agent 拥有身份(EIP-8004)、拥有财产(DAT)、通过协议交易(x402)、行为受数学约束(Verified Computing),并最终通过 iDAO 与人类利益对齐。资料甚至把这条路概括为:为未来数字社会制定宪法和货币政策。

这是一个很大的说法。但大,不等于空。

因为如果把这套想象拆开,它回答的恰恰是一个文明必须回答的五个基本问题。

第一个问题是:谁是谁。

EIP-8004 试图把 agent 从服务器上的匿名进程,变成具有身份、声誉和验证记录的实体。没有这一层,未来网络会被不透明的自动化主体淹没,没人知道谁在行动,谁该负责。LazAI 的知识库把这一层概括为 agent 的身份信用体系。

第二个问题是:谁拥有什么。

DAT 把数据、模型和计算输出从“资源”变成“资产”,并让这些资产可编程、可追踪、可获利。资料直接写到,DAT 的核心创新是把数据集和 AI 模型转化为可验证、可追踪且可获利的链上资产。这不是小修小补。这意味着 AI 经济里的价值,不必永远只记在平台后台,也不必永远只流向模型提供者和算力持有者。

第三个问题是:它们怎么交易。

x402 和 GMPayer 的意义,不只是“能付钱”,而是让机器之间拥有原生的报价和结算语言。LazAI 材料明确把这部分描述成解决 agent 资源交换和支付痛点的关键基础设施。机器之间不仅交换信息,还交换预算、责任和价值——这才是 agent economy,而不是“会聊天的软件”。

第四个问题是:你怎么知道系统真的按规则运行。这里 LazAI 的一句话极好:Proof is AI’s moat. 它的验证计算框架结合 TEE 和 ZKP,把传统 AI 的“相信品牌”转成“相信证明”。传统 AI 是“Trust me, bro”,LazAI 是“Don’t trust, verify”。这不只是技术升级。这是在把信任从企业声誉迁移到可验证执行上。

第五个问题是:规则冲突了怎么办。

这就是 iDAO 的位置。它不只是一个投票壳,而是 agent 背后的价值观、准入标准、收益分配、授权撤销和惩罚机制。LazAI 把它与验证计算并列为信任机制的核心。这意味着,未来的 agent 不是仅仅“被允许运行”,而是要生活在一个可博弈、可追责、可撤销的制度空间中。把这些拼在一起,你会发现,“算法宪法”不是一个花哨的比喻。它是一种非常具体的制度野心:在没有单一主人的情况下,让秩序仍然成立。

当然,真正难的地方恰恰在于,这些制度组件不自动等于社会答案。

确权不等于购买力恢复。

分润不等于宏观稳定。

链上治理不等于现实中的社会契约。

被 AI 冲击最深的人,不一定天然就在新制度里占据有利位置。

这也是为什么,Citrini 和 LazAI 其实不是互相否定,而是在谈同一时代问题的不同层次。前者提出的是症状:如果 AI 的收益主要流向资本和算力,而不是更广泛地进入社会收入结构,那么消费、信用和中产安全感都会先出问题。后者提出的是机制:如果社会不想把 agent 世界完全交给平台,也不想把它放任为终端无序,就必须发明新的身份、资产、支付、验证和治理结构。

一个在说病。

一个在说器官。两者都必要,但都不是全部。

这恰好能解释为什么 Vitalik 那句被广泛引用的话——AI 是引擎,人类是方向盘——如此重要,又如此不够。重要在于,它提醒人们:更强的系统不自动拥有正当性;目标函数、价值判断、最终约束,不能交给单一 AI 或单一中心。不够在于,它没有替人类回答另一个更难的问题:当系统复杂到单个人类已经握不住方向盘时,方向盘怎么办?

答案不可能是继续微操一切。

答案也不可能是寄希望于某个更聪明、更善良的中心。

唯一像样的答案,只能是把“方向盘”制度化:把一部分约束转化成身份注册、信誉积累、资产确权、预算约束、数学收据、挑战机制、授权撤销和惩罚逻辑。

这正是 Web3 的社会实验在 AI 时代忽然重新变得严肃的原因。过去很多人把它看成投机的技术边角料;但当系统复杂度超过人类直接治理能力时,那些关于“没有中心化信任者时,秩序还能否成立”的实验,就不再是边角料了。它们突然变成了预演。

于是,文章真正的锋刃终于显露出来。

华尔街被一篇 AI 文章吓到,并不是因为它第一次意识到 AI 会替代工作。

华尔街被吓到,是因为它第一次如此直白地被提醒:AI 最危险的地方,也许不是让机器变得像人,而是让一个旧世界的收入循环、消费逻辑和制度想象突然显得过时。

如果 Citrini 是对的,那么 AI 不只是生产力革命,它还是分配革命。

如果 Vitalik 是对的,那么 AI 不只是工程问题,它还是主权问题。如果 LazAI 这条路至少部分是对的,那么 AI 的下一阶段竞争,就不只是模型能力竞争,而是制度设计竞争。

真正的大问题不再是:

模型还会不会更强。

Agent 会不会更自主。

企业会不会进一步裁员。

真正的大问题是:

当网络上存在数十亿个 agent 时,谁来写它们的宪法?

如果答案是平台,我们得到的是数字帝国。

如果答案是终端,我们得到的是高成本的无序。

如果答案是一套可验证、可组合、可博弈、可惩罚的规则机器,我们至少开始接近另一种可能:一个不是由更聪明的主人统治,而是由更好的制度约束的智能社会。

AI 时代最难的问题,从来不是模型。

是秩序。

而华尔街那天真正卖掉的,或许不只是股票。

它卖掉的,是一个曾经不言自明的旧假设:技术越成功,社会就会自然吸收它。

评论

所有评论

推荐阅读

  • 美SEC与CFTC签署合作备忘录,将共同推进加密监管与新产品发展

    美国两大金融监管机构美国证券交易委员会(SEC)与商品期货交易委员会(CFTC)宣布签署一份合作备忘录(MOU),承诺在加密资产监管和新型数字资产产品推出方面加强协作,以支持合法创新并保护投资者。

  • PayPay计划将美国IPO股票的发行价定在每股16美元

    日本软银集团支持的PayPay计划将美国IPO股票的发行价定在每股16美元。

  • 2025年主流公链的收益表现呈现显著分化:Solana 录得41.5亿美元的巨额净亏损

    数据分析机构Kaiko发布2025年公链收益报告,数据显示,2025年主流公链的收益表现呈现显著分化:Solana录得41.5亿美元的巨额净亏损,以太坊净亏损16.2亿美元,而波场(Tron)凭借6.24亿美元的收入成功覆盖通胀成本,成为唯一实现盈利与代币通缩的主流公链。

  • IEA宣布向市场释放4亿桶紧急石油储备 规模为史上最大

    国际能源署(IEA)今日表示,将向市场提供4亿桶来自紧急储备的石油。IEA称,中东局势已为石油市场带来“显著且不断上升的风险”。这些库存将来自IEA成员国的强制性储备。根据规定,各成员国必须持有相当于上一年度净进口量至少90天的库存。储备形式可以是原油、成品油,或两者的组合。IEA最新数据显示,北美的战略储备主要以原油为主,而欧洲和亚洲成员国则同时持有原油和成品油。截至2025年底,IEA成员国公共库存中的石油总量为12.5亿桶,占经合组织(OECD)石油总库存的约30%。这是IEA自1974年成立以来第六次发布紧急储备释放指令,规模为史上最大。

  • 在CPI公布前,Saylor增持2,038个比特币

    据市场消息:在CPI公布前,Saylor增持2,038个比特币。

  • 特朗普:伊朗已“几乎没有可打击的目标”,与伊朗的战争很快就会结束

    美国总统特朗普:伊朗已“几乎没有可打击的目标”了,与伊朗的战争很快就会结束。伊朗战争很快就会结束,“我什么时候想让它结束,它就会什么时候结束”。

  • 美国CPI符合预期 美股三大股指涨跌不一

    美股开盘,道指跌0.17%,标普500指数涨0.13%,纳指涨0.33%。甲骨文(ORCL.N)涨超11%,财年营收指引超预期。Nebius(NBIS.O)涨超9%,获英伟达20亿美元投资。

  • 谷歌完成320亿美元收购云安全公司Wiz

    谷歌已完成对云和人工智能安全平台Wiz的320亿美元收购。这一最终价格高于2024年提出的230亿美元报价,并成为谷歌历史上规模最大的收购交易。该交易通过将Wiz的云安全能力整合进Google Cloud现有安全工具体系,扩大了Google Cloud的安全产品组合。Wiz的平台可连接各类云服务提供商,帮助企业识别漏洞并应对安全威胁。

  • 稳定币市值创下3120亿美元的历史新高

    据市场消息:稳定币市值创下3120亿美元的历史新高。

  • 以色列国防军称监测到伊朗发射导弹

    以色列国防军表示,监测到从伊朗向以色列境内发射的导弹,并启动防空系统进行拦截。约旦河西岸、以色列中部和北部地区响起防空警报。截至目前,暂无人员伤亡报告。(央视新闻)