gemini vs other

总结 就是谷歌花了至少5-10亿美金得到了现在的多模态一体化的效果

阿里花了多少钱,零头 所以阉割了功能成本自然就低了 所以好的效果是用钱砸出来的

目前的ai生意是由广告在补贴,云业务在增长

这是一门不错的生意,不久的将来如果视频可以做实时推理

第一个要干掉的就是赔率行业 nba 足球 使用算法实时计算赔率差

然后下注 这是我想的到第一个需求,中国模型做不出来不是因为做不出来,而是因为不砸钱啊

截至 2025 年 12 月(即当前时间),Google 尚未公开披露 Gemini 3 模型的确切训练成本

由于 Gemini 3 刚刚于 2025 年 11 月发布,通常这类具体的财务数据会在模型发布较长时间后,通过年度 AI 指数报告(如 Stanford AI Index Report)或详细的技术白皮书才会由第三方估算得出。

不过,根据已知的公开数据和行业趋势,我们可以通过对比其前代模型和竞品来进行合理的推测:

1. 核心参考数据:Gemini 1.0 Ultra 的成本

目前最确切的公开数据来自对 Gemini 1.0 Ultra(2023/2024年发布)的估算:

  • 训练成本:1.91 亿美元 (约合 13.8 亿人民币)。
  • 对比: 这一数字是当时 GPT-4 训练成本(约 7800 万美元)的两倍以上。

2. Gemini 3 训练成本推测

行业普遍认为,Gemini 3 的训练成本极有可能远超 1.91 亿美元,甚至可能达到 数亿美元(5亿-10亿美元量级)。理由如下:

  • “Deep Think” 推理能力: Gemini 3 引入了类似 OpenAI o1/o3 的深度思考(Deep Think)模式,这种强化学习(RL)训练过程极其消耗算力。
  • 原生多模态架构: Gemini 3 在图像、视频、音频和代码的原生理解上进行了大幅升级,需要处理的数据量级和维度远超前代。
  • 基础设施投入: 虽然 Google 使用自研的 TPU(张量处理单元)能比购买 NVIDIA GPU 节省大量成本,但 Gemini 3 的训练规模(模型参数量和数据量)通常是指数级增长的。

3. 使用成本(侧面印证高昂的训练投入)

虽然训练成本未知,但 Gemini 3 的使用定价也反映了其背后的高昂投入:

  • 订阅价格: 包含 Gemini 3 Deep Think 功能的 Google AI Ultra 订阅价格高达 $249.99/月(约 1800 人民币/月),远高于普通版的 $20/月。
  • API 价格: Gemini 3 Pro 的 API 价格约为 $2 / 百万输入 token$12 / 百万输出 token(针对 200k 以下上下文),这在 2025 年的市场中属于高端旗舰模型的定价。

总结

  • 确切数字: 未公开(截至 2025 年 12 月)。
  • 基准参考: 前代 Gemini 1 Ultra 耗资约 1.91 亿美元
  • 合理估算: Gemini 3 的训练成本很可能在 数亿美元 级别。

Google 现在的策略不是“立即盈利”,而是“防御性进攻”。

  • 短期看: 亏损。他们在用利润丰厚的搜索业务输血,不惜一切代价构建护城河,防止 OpenAI 和 Microsoft 颠覆其统治地位。
  • 长期看: 一旦硬件成本(通过自研 TPU)下降,且推理模型(如 Gemini Flash)变得足够便宜,当 AI 彻底取代传统搜索入口时,才是真正收割利润的时刻。
  • 所以明年广告就得给大家看起来 2026 广告ai 元年
  • Google TPU v6 (Trillium) 的杀手锏
  • 截至 2025 年底,Trillium 是 Google 对抗 NVIDIA Blackwell 的主力:
  • 能效比 (Performance/Watt): 相比前代 TPU v5e,Trillium 的能效提升了 67%。在电力供应紧张的今天,省电就是省钱(电费占数据中心运营成本的大头)。
  • 大内存带宽 (HBM): Trillium 增加了一倍的 HBM 容量和带宽。这意味着它可以加载更大的模型参数,减少芯片之间的数据搬运次数——数据搬运是 AI 训练中最耗时、最耗电的环节
  • 稀疏计算 (SparseCore): Google 拥有独家的 SparseCore 技术,专门处理推荐系统(Ads, Search, YouTube)所需的稀疏数据。这让 TPU 在处理 Google 赚钱的核心业务(广告推荐)时,效率吊打 GPU。
  • 4. 为什么还没“赢”?(TPU 的局限性)
  • 既然 TPU 这么省钱,为什么 Google 还没在竞争中彻底碾压?
  • 生态壁垒 (CUDA): 全世界的 AI 开发者都在用 NVIDIA 的 CUDA 编程。将代码迁移到 Google 的 JAX/TPU 环境需要极高的技术门槛。这导致外部开发者很难用 TPU,TPU 只能供 Google 内部使用(Internal Use Only)。
  • 灵活性: 当新的 AI 架构(非 Transformer)出现时,NVIDIA GPU 因为通用性强,可以立刻适应;而 ASIC 芯片(TPU)可能需要重新设计硬件周期(需要 1-2 年)。
  • 5. 财务视角的终局推演
  • 短期: Google 必须同时购买大量 NVIDIA GPU(为了提供 Google Cloud 服务给外部客户,因为客户想要 GPU),同时大规模部署 TPU v6(给自己的 Gemini 和 Search 使用)。
  • 长期: 随着 Gemini 3 的规模越来越大,推理成本越来越高,TPU 的成本优势将成为 Google 盈利的关键分水岭
  • 一句话总结: OpenAI 每赚 1 块钱,可能要分给 NVIDIA 0.4 元;而 Google 赚的 1 块钱,由于 TPU 的存在,绝大部分都能留在自己口袋里。这就是 Google 敢于把 Gemini 免费给 4.5 亿用户用的底气

发布者:archimedesspx

cycle expert

留下评论

您的邮箱地址不会被公开。 必填项已用 * 标注