Cointime

扫码下载App
iOS & Android

谷歌内部文件泄漏:谷歌、OpenAI都没有护城河,大模型门槛正被开源踏破

项目方

「我们没有护城河,OpenAI 也没有。」在最近泄露的一份文件中,一位谷歌内部的研究人员表达了这样的观点。这位研究人员认为,虽然表面看起来 OpenAI 和谷歌在 AI 大模型上你追我赶,但真正的赢家未必会从这两家中产生,因为一个第三方力量正在悄然崛起。这个力量名叫「开源」。围绕 Meta 的 LLaMA 等开源模型,整个社区正在迅速构建与 OpenAI、谷歌大模型能力类似的模型,而且开源模型的迭代速度更快,可定制性更强,更有私密性……「当免费的、不受限制的替代品质量相当时,人们不会为受限制的模型付费。」作者写道。这份文件最初由一位匿名人士在公共 Discord 服务器上分享,获得转载授权的产业媒体 SemiAnalysis 表示,他们已经验证了这份文件的真实性。这篇文章在推特等社交平台上得到了大量转发。其中,得克萨斯大学奥斯汀分校教授 Alex Dimakis 发表了如下观点:

  • 开源 AI 正在取得胜利,我同意,对于全世界来说,这是件好事,对于构建一个有竞争力的生态系统来说也是好事。虽然在 LLM 领域,我们还没有做到这一点,但我们刚刚让 OpenClip 击败了 openAI Clip,并且 Stable Diffusion 比封闭模型更好。
  • 你不需要庞大的模型,高质量的数据更有效、更重要,API 背后的羊驼模型进一步削弱了护城河。
  • 你可以从一个好的基础模型和参数高效微调(PEFT)算法开始,比如 Lora 在一天内就能运行得非常好。算法创新终于开始了!
  • 大学和开源社区应该组织更多的工作来管理数据集,训练基础模型,并像 Stable Diffusion 那样建立微调社区。

当然,并非所有研究者都同意文章中的观点。有人对开源模型是否真能拥有媲美 OpenAI 的大模型的能力和通用性持怀疑态度。

不过,对于学术界来说,开源力量的崛起总归是件好事,意味着即使没有 1000 块 GPU,研究者也依然有事可做。

以下是文件原文:谷歌、OpenAI 都没有护城河我们没有护城河,OpenAI 也没有。我们一直在关注 OpenAI 的动态和发展。谁将跨越下一个里程碑?下一步会是什么?但令人不安的事实是,我们没有能力赢得这场军备竞赛,OpenAI 也是如此。在我们争吵不休的时候,第三个派别一直在渔翁得利。这个派别就是「开源派」。坦率地说,他们正在超越我们。我们所认为的那些「重要的待解决问题」如今已经被解决了,而且已经送到了人们的手中。我举几个例子:

  • 能在手机上运行的大型语言模型:人们可以在 Pixel 6 上运行基础模型,速度为 5 tokens / 秒。
  • 可扩展的个人 AI:你可以花一个晚上在你的笔记本电脑上微调一个个性化的 AI。
  • 负责任的发布:这个问题与其说是「被解决了」,不如说是「被忽略了」。有的网站整体都是没有任何限制的艺术模型,而文字也不例外。
  • 多模态:目前的多模态科学 QA SOTA 是在一个小时内训练完成的。

虽然我们的模型在质量方面仍然保持着轻微的优势,但差距正在以惊人的速度缩小。开源模型的速度更快,可定制性更强,更有私密性,而且在同等条件下能力更强大。他们正在用 100 美元和 130 亿的参数做一些事情,而我们在 1000 万美元和 540 亿的参数上却很难做到。而且他们在几周内就能做到,而不是几个月。这对我们有深远的影响:

  • 我们没有秘密武器。我们最大的希望是向谷歌以外的其他人学习并与他们合作。我们应该优先考虑实现 3P 整合。
  • 当免费的、不受限制的替代品质量相当时,人们不会为受限制的模型付费。我们应该考虑我们的附加值到底在哪里。
  • 巨大的模型拖慢了我们的速度。从长远来看,最好的模型是那些可以快速迭代的模型。既然我们知道 200 亿以下参数的模型能做什么,那我们应该在一开始就把它们做出来。

LLaMA 掀起的开源变革

三月初,随着 Meta 的 LLaMA 模型被泄露给公众,开源社区得到了第一个真正有用的基础模型。该模型没有指令或对话调整,也没有 RLHF。尽管如此,开源社区立即把握住了 LLaMA 的重要性。

随之而来的是源源不断的创新,主要进展出现的间隔只有几天(如在树莓派 4B 上运行 LLaMA 模型、在笔记本上对 LLaMA 指令微调、在 MacBook 上跑 LLaMA 等)。仅仅一个月之后, 指令微调、量化、质量改进、多模态、RLHF 等变体都出现了,其中很多都是在彼此的基础上构建的。

最重要的是,他们已经解决了规模化问题,这意味着任何人都可以自由地修改和优化这个模型。很多新想法都出自普通人。训练和实验门槛已经从主要研究机构下放到一个人、一个晚上和一台功能强大的笔记本电脑。  

LLM 的 Stable Diffusion 时刻

从很多方面来说,任何人都不应该对此感到意外。开源 LLM 当前的复兴紧随图像生成的复兴出现,很多人称这是 LLM 的 Stable Diffusion 时刻。

在这两种情况下,低成本的公众参与是通过一种成本低得多的低秩适应(low rank adaptation, LoRA)微调机制实现的,并结合了 scale 上的重大突破。高质量模型的易得帮助世界各地的个人和机构孕育了一系列想法,并让他们得以迭代想法,并很快超过了大型企业。

这些贡献在图像生成领域至关重要,使 Stable Diffusion 走上了与 Dall-E 不同的道路。拥有一个开放的模型促成了 Dall-E 没有出现的产品集成、市场、用户界面和创新。

效果是显而易见的:与 OpenAI 解决方案相比,Stable Diffusion 的文化影响迅速占据主导地位。LLM 是否会出现类似的发展趋势还有待观察,但广泛的结构要素是相同的。

谷歌错过了什么?

开源项目使用的创新方法或技术直接解决了我们仍在努力应对的问题。关注开源工作可以帮助我们避免重蹈覆辙。其中,LoRA 是功能极其强大的技术,我们应当对其投入更多的关注。

LoRA 将模型的更新展现为低秩因式分解,能够使更新矩阵的大小缩减几千倍。如此一来,模型的微调只需要很小的的成本和时间。将在消费级硬件上对语言模型进行个性化调整的时间缩减至几个小时非常重要,尤其是对于那些希望在近乎实时的情况下整合新的、多样化知识的愿景而言。虽然该技术对一些我们想要完成的项目有很大影响,但它并未在谷歌内部得到充分的利用。  

LoRA 的神奇力量

LoRA 如此高效的一个原因是:就像其他形式的微调一样,它可以堆叠。我们可以应用指令微调等改进,帮助完成对话、推理等任务。虽然单个微调是低秩的,当它们的总和并不是,LoRA 允许对模型的全等级更新随着时间的推移积累起来。

这意味着,随着更新更好数据集和测试的出现,模型可以低成本地保持更新,而不需要支付完整的运行成本。

相比之下,从头开始训练大模型不仅丢掉了预训练,还丢掉了之前进行的所有迭代和改进。在开源世界中,这些改进很快就会盛行起来,这让全面重新训练的成本变得非常高。

我们应该认真考虑,每个新应用或想法是否真的需要一个全新的模型。如果我们真的有重大的架构改进,排除了直接重用模型权重,那么我们应该致力于更积极的蒸馏方式,尽可能保留前一代功能。  

大模型 vs. 小模型,谁更具有竞争力?

对于最流行的模型尺寸,LoRA 更新的成本非常低(约 100 美元)。这意味着,几乎任何有想法的人都可以生成并分发它。在训练时间小于一天的正常速度下,微调的累积效应很快就可以克服开始时的尺寸劣势。事实上,就工程师时间而言,这些模型的改进速度远远超过了我们的最大变体所能做到的。并且最好的模型在很大程度上已经与 ChatGPT 基本没有区别了。因此,专注于维护一些最大的模型实际上使我们处于不利地位。

这些项目中有许多是通过在小型、高度策划的数据集上进行训练来节省时间。这表明在数据缩放规律中较为灵活。这种数据集的存在源于《数据并非你所想(Data Doesn't Do What You Think)》中的想法,并正迅速成为无需谷歌的标准训练方式。这些数据集是使用合成方法(例如从现有的模型中滤出最好的反映)以及从其他项目中搜刮出来的,这但两种方法在谷歌并不常用。幸运的是,这些高质量的数据集是开源的,所以它们可以免费使用。

与开源竞争注定失败  

最近的这一进展对商业战略有非常直接的影响。如果有一个没有使用限制的免费、高质量的替代品,谁还会为有使用限制的谷歌产品买单?况且,我们不应该指望能够追赶上。现代互联网在开放源码上运行,是因为开放源码有一些我们无法复制的显著优势。

「我们需要他们」多于「他们需要我们」

  保守我们的技术机密始终是一个脆弱的命题。谷歌研究人员正定期前往其他公司学习,这样可以假设他们知道我们所知道的一切。并且只要这种 pipeline 开放,他们就会继续这样做。

但由于 LLMs 领域的尖端研究可以负担得起,因此保持技术竞争优势变得越来越难了。世界各地的研究机构都在相互借鉴,以广度优先的方式探索解决方案空间,这远远超出了我们自身的能力。我们可以努力抓住自己的秘密,但外部创新会稀释它们的价值,因此可以尝试相互学习。

个人不像企业那样受到许可证的约束

多数创新构建在 Meta 泄露的模型权重之上。随着真正开放的模型变得越来越好,这将不可避免发生变化,但关键是他们不必等待。「个人使用」提供的法律保护和不切实际的个人起诉意味着个人可以在这些技术炙手可热的时候使用它们。

拥有生态系统:让开源工作为自己所用

矛盾的是,所有这一切只有一个赢家,那就是 Meta,毕竟泄露的模型是他们的。由于大多数开源创新是基于他们的架构, 因此没有什么可以阻止他们直接整合到自家的产品中。

可以看到,拥有生态系统的价值再怎么强调都不为过。谷歌本身已经在 Chrome 和 Android 等开源产品中使用这种范式。通过孵化创新工作的平台,谷歌巩固了自己思想领导者和方向制定者的地位,获得了塑造比自身更宏大思想的能力。

我们对模型的控制越严格,做出开放替代方案的吸引力就越大,谷歌和 OpenAI 都倾向于防御性的发布模式,使得他们可以严格地控制模型使用方式。但是,这种控制是不现实的。任何想要将 LLMs 用于未经批准目的的人都可以选择免费提供的模型。

因此, 谷歌应该让自己成为开源社区的领导者,通过更广泛的对话合作而不是忽视来起到带头作用。这可能意味着采取一些不舒服的举措,比如发布小型 ULM 变体的模型权重。这也必然意味着放弃对自身模型的一些控制,但这种妥协不可避免。我们不能既希望推动创新又要控制它。  

OpenAI 未来的路在何方?

考虑到 OpenAI 当前的封闭政策,所有这些开源讨论都会令人觉得不公平。如果他们都不愿意公开技术,我们为什么要分享呢?但事实却是,我们通过源源不断地挖角 OpenAI 的高级研究员,已经与他们分享着一切。在我们阻止这一潮流之前,保密仍是一个有争议的问题。

最后要说的是,OpenAI 并不重要。他们在开源立场上犯了与我们一样的错误,并且他们保持优势的能力必然遭到质疑。除非 OpenAI 改变立场,否则开源替代产品能够并最终会让他们傲然失色。至少在这方面,我们可以迈出这一步。  

评论

所有评论

推荐阅读

  • Polymarket将于下周一公布重大消息,或为发币或融资相关消息

    Cointime 报道,3月21日消息,Polymarket 官方团队成员 Mustafa 于 X 平台发文表示,下周一即将公布重大消息。因推文内容包含硬币符号,社区猜测或为融资或代币发射相关重大消息。 此前消息,预测市场平台 Kalshi 与 Polymarket 据悉正与潜在投资者洽谈新一轮融资,目标估值均约为 200 亿美元。日前,Kalshi 已完成新一轮超 10 亿美元融资,估值达 220 亿美元,较去年 12 月上一轮融资时的 110 亿美元估值翻倍。知情人士透露,本轮融资由 Coatue Management 领投,Kalshi 目前的年化收入为 15 亿美元。

  • 美众议院金融服务委员会将于3月25日举行代币化听证会,聚焦资本市场未来

    3 月 21 日,美国众议院金融服务委员会将于美东时间 3 月 25 日 10:00 举行听证会,主题为「代币化与资本市场的未来」,预计将重点讨论区块链技术在金融体系中的应用与监管方向。

  • 黄金创43年来最大周跌幅:一周暴跌11%,避险属性遭质疑

    3 月 21 日,受中东局势升级及利率预期影响,黄金价格大幅下挫,创下自 1983 年以来最大单周跌幅。现货黄金周五跌至约 4488 美元/盎司,单周累计下跌约 11%,自 2 月底以来累计跌幅已超 15%。市场分析认为,美联储年内或维持利率不变、鲍威尔关于通胀上行的表态削弱了黄金吸引力。同时,在伊朗冲突背景下,比特币表现相对更强,期间反弹超 11%,对黄金形成对比。

  • 分析:加密市场山寨币交易量大幅下滑,市场兴趣持续降温

    3 月 21 日,Cryptoquant 分析师 Darkfost 发文称,加密市场山寨币交易量持续走低,投资者兴趣明显减弱。在熊市背景及地缘政治不确定性影响下,山寨币表现持续跑输比特币,风险偏好显著收缩。当前,Binance 山寨币日交易量约为 77 亿美元,其它主要交易所合计约 188 亿美元,远低于 2025 年 10 月与 2 月高峰期(Binance 曾达 400 亿至 500 亿美元,其它平台达 630 亿至 910 亿美元)。目前 Binance 占据约 40% 的市场份额。分析指出,历史上交易量高峰往往对应市场阶段性顶部与 FOMO 情绪释放,而当前低迷成交环境也意味着潜在机会通常出现在市场关注度最低阶段。

  • 消息人士:特朗普政府正制定方案以夺取伊朗核材料储备

    3 月 21 日,据美国哥伦比亚广播公司(CBS)报道,多位知情人士透露,特朗普政府一直在谋划获取或转移伊朗核材料的方法和选项。此时,由美国和以色列领导的针对伊朗的军事行动正进入一个更加不确定的阶段。关于特朗普是否会下令实施此类行动,目前时机尚不明确。一位消息人士表示,他尚未做出任何决定。但两位消息人士表示,相关规划的核心是可能部署来自联合特种作战司令部的部队,该部队是精英军事单位,常负责最敏感的防扩散任务。

  • 中东冲突与加息预期共振:全球资产大震荡,美股四连跌、债市「血洗」、黄金创43年最大周跌幅

    3 月 21 日,中东局势持续升级叠加 Federal Reserve 加息预期骤然升温,全球市场遭遇系统性冲击。美股连续第四周下跌创一年最长跌势,纳指单日跌超 2%,科技股全线承压;全球债市收益率大幅飙升,美债、英债、德债均创多年新高,资金大规模去杠杆。大宗商品剧烈分化,黄金跌破 4500 美元关口,单周暴跌超 10%,创 1983 年以来最大跌幅,避险属性遭质疑;原油则因中东供应风险暴涨,布油重返 110 美元上方,迪拜原油期货单日飙升超 16%。与此同时,比特币在 7 万美元附近获得支撑,连续三周跑赢黄金。市场分析认为,地缘冲突推升能源价格并加剧通胀预期,迫使货币政策路径重定价,全球金融条件快速收紧,风险资产仍处于下行与再定价过程中。

  • 美团开源560B参数定理证明模型:72次推理通过率97.1%,刷新开源模型SOTA

    据 1M AI News 监测,美团 LongCat 团队开源 LongCat-Flash-Prover,一个 5600 亿参数的 MoE 模型,专攻形式化定理证明语言 Lean4 的数学推理任务。模型权重以 MIT 协议发布,已上线 GitHub、Hugging Face 和 ModelScope。模型将形式化推理拆解为三项独立能力:自动形式化(将自然语言数学问题转化为 Lean4 形式语句)、草图生成(产出引理风格的证明框架)和完整证明生成。三项能力均通过 Agent 工具集成推理(TIR)与 Lean4 编译器实时交互验证。训练方面,团队提出 Hybrid-Experts Iteration Framework 生成冷启动数据,并在强化学习阶段引入 HisPO 算法稳定 MoE 模型的长程任务训练,同时加入定理一致性和合法性检测机制防止 reward hacking。基准测试显示,LongCat-Flash-Prover 在开源权重模型中刷新了自动形式化和定理证明两项 SOTA。MiniF2F-Test 上仅用 72 次推理即达 97.1% 通过率,ProverBench 和 PutnamBench 分别达到 70.8% 和 41.5%,每题推理次数不超过 220 次。

  • Erik Voorhees再次增持1.44万枚ETH,总持仓量突破11.7万枚

    3 月 21 日,据 AI 姨监测,ShapeShift 创始人、比特币早期支持者 Erik Voorhees 关联地址,过去 11 小时买入 14,424.53 ETH,总持仓突破 11.7 万枚,持仓均价 2,160.24 美元,当前浮亏 114.5 万美元。

  • 消息人士:特朗普政府正制定方案以夺取伊朗核材料储备

    Cointime 报道,3月21日消息,据美国哥伦比亚广播公司(CBS)报道,多位知情人士透露,特朗普政府一直在谋划获取或转移伊朗核材料的方法和选项。此时,由美国和以色列领导的针对伊朗的军事行动正进入一个更加不确定的阶段。 关于特朗普是否会下令实施此类行动,目前时机尚不明确。一位消息人士表示,他尚未做出任何决定。但两位消息人士表示,相关规划的核心是可能部署来自联合特种作战司令部的部队,该部队是精英军事单位,常负责最敏感的防扩散任务。(金十)

  • GameFi板块市值暂报45.15亿美元,FLOKI排名第一

    3 月 21 日,据 Coingecko 数据,GameFi 板块市值暂报 45.15 亿美元,FLOKI 以 2.86 亿美元市值排名第一,排在第二第三位的分别为:The Sandbox(2.18 亿美元)、Undeads Games(2.11 亿美元)。此前 Solana 基金会主席 Lily Liu 表示,区块链游戏「不会再回归」。她认为,尽管行业曾寄望通过链上资产与开放世界推动 Web3 与元宇宙发展,但实际表现远未达预期。市场观点称链游长期依赖「Play-to-Earn」等代币激励模式,却缺乏真正吸引核心玩家的游戏性与内容构建能力,导致用户留存与生态可持续性不足。包括 Andreessen Horowitz(a16z)、Framework Ventures、Animoca Brands 在内的机构曾向该领域投入数十亿美元,但回报表现不佳。