Google 刚刚推出了其第六代人工智能加速器芯片 Trillium,声称其性能提升可能从根本上改变人工智能开发的经济性,同时推动机器学习的可能性边界。 这款定制处理器为 Google 新发布的 Gemini 2.0 AI 模型的训练提供了动力,其训练性能是其前代产品的四倍,同时使用的能源显著减少。这一突破来得正是时候,因为科技公司竞相构建日益复杂的人工智能系统,这些系统需要巨大的计算资源。“TPUs 为 Gemini 2.0 的 100%训练和推理提供了动力,”Google 的首席执行官 Sundar Pichai 在一篇强调该芯片在公司人工智能战略中核心作用的公告中解释道。部署规模是前所未有的:Google 在一个单一的网络结构中连接了超过 10 万个 Trillium 芯片,创建了一个相当于世界上最强大的人工智能超级计算机之一的系统。Trillium 的 4 倍性能提升如何改变人工智能开发Trillium 的规格在多个维度上代表了显著的进步。与前代产品相比,该芯片的峰值计算性能每芯片提高了 4.7 倍,同时高带宽内存容量和芯片间互连带宽都增加了一倍。也许最重要的是,它实现了 67%的能源效率提高——这是一个关键指标,因为数据中心正在努力应对人工智能训练的巨大电力需求。“在训练 Llama-2-70B 模型时,我们的测试表明,Trillium 在从 4 片 Trillium-256 芯片 pod 到 36 片 Trillium-256 芯片 pod 的扩展中实现了接近线性的扩展,扩展效率为 99%,”Google Cloud 计算和人工智能基础设施副总裁 Mark Lohmeyer 说。考虑到在这种规模下分布式计算通常面临的挑战,这种扩展效率水平尤其令人瞩目。创新的经济学:为什么 Trillium 改变了人工智能初创公司的游戏规则Trillium 的商业影响超出了原始性能指标。Google 声称,与上一代相比,该芯片提供了高达 2.5 倍的每美元训练性能改进,有可能重塑人工智能开发的经济学。这种成本效率对于开发大型语言模型的企业和初创公司来说可能特别重要。AI21 Labs,一个早期的 Trillium 客户,已经报告了显著的改进。“在规模、速度和成本效率方面的进步是显著的,”AI21 Labs 的首席技术官 Barak Lenz 在公告中指出。攀登新高度:Google 的 10 万个芯片人工智能超级网络Google 在其人工智能超级计算机架构中部署 Trillium,展示了该公司对人工智能基础设施的集成方法。该系统将超过 10 万个 Trillium 芯片与能够提供每秒 13 拍比特双向带宽的 Jupiter 网络结构相结合——使单个分布式训练工作能够在数十万个加速器上扩展。“闪存使用的增长超过了 900%,这是非常令人难以置信的,”Google 的人工智能工作室团队的产品经理 Logan Kilpatrick 在开发者大会上指出,强调了对人工智能计算资源的需求迅速增加。超越 Nvidia:Google 在人工智能芯片战争中的大胆举措Trillium 的发布加剧了人工智能硬件的竞争,在这一领域,Nvidia 凭借其基于 GPU 的解决方案占据主导地位。虽然 Nvidia 的芯片仍然是许多人工智能应用的行业标准,但 Google 的定制硅方法可能为特定工作负载提供优势,特别是在训练非常大的模型方面。行业分析师认为,Google 在定制芯片开发方面的巨额投资反映了对人工智能基础设施日益重要性的战略押注。该公司决定将 Trillium 提供给云客户,表明其希望在云人工智能市场上更积极地竞争,在该市场上,它面临着来自 Microsoft Azure 和 Amazon Web Services 的激烈竞争。为未来提供动力:Trillium 对明天的人工智能意味着什么Trillium 功能的影响超出了直接的性能提升。该芯片高效处理混合工作负载的能力——从训练大型模型到运行生产应用的推理——暗示了一个未来,在这个未来,人工智能计算变得更加容易获得和成本效益更高。对于更广泛的科技行业来说,Trillium 的发布标志着人工智能硬件霸权的竞争进入了一个新阶段。随着公司推动人工智能的可能性边界,设计和部署大规模专用硬件的能力可能成为越来越关键的竞争优势。“我们仍处于人工智能可能的早期阶段,”Google DeepMind 的首席执行官 Demis Hassabis 在公司博客文章中写道。“拥有正确的基础设施——硬件和软件——将是至关重要的,因为我们继续推动人工智能可以做什么的边界。”随着行业朝着更复杂的人工智能模型发展,这些模型可以自主行动并跨多种信息模式进行推理,对底层硬件的需求只会增加。通过 Trillium,Google 已经表明,它打算继续处于这一演变的前沿,投资于将推动下一代人工智能进步的基础设施。