随着人工智能的不断发展,生成式AI正成为行业头条。起初,我们被其新奇性所吸引,但现在我们已远远超越了娱乐和游戏阶段,开始看到其对业务的实际影响。主要科技巨头如微软、亚马逊和谷歌纷纷投入全面的“AI军备竞赛”,企业也在迅速转型,以免被抛在后头,错失巨大的机会。由大型语言模型(LLM)驱动的新公司如雨后春笋般涌现,受到风险投资公司的支持,后者正追寻下一个赌注。
然而,每一项新技术都伴随着挑战。模型的准确性、偏见以及训练成本等议题都备受关注。尽管与技术本身无关,身份和安全问题也开始引起媒体关注,这与模型的滥用有关。
在这一切背景下,一个仍然需要更多关注的问题是:在生产环境中运行这些大型模型的成本(推理成本)对创新构成了重大威胁。生成式模型异常庞大、复杂且计算密集,使得其运行成本远高于其他类型的机器学习模型。
举个例子,假设你创建了一个家居装饰应用,帮助客户在不同的设计风格中构想他们的房间。通过一些微调,模型“稳定扩散”可以相对轻松地实现这一目标。你选择了一个每1,000张图片收费1.50美元的服务,听起来可能不算太多,但如果应用一旦走红呢?假设你拥有100万每日活跃用户,每人制作10张图片。你的推理成本现在将达到540万美元每年。
主体段落2:成本考虑是数字化软件公司的关键
如果你的公司将生成模型或LLM作为应用的核心,你的定价结构、增长计划和商业模式必须充分考虑这些成本。在你的AI应用推出时,训练成本基本上是固定成本,但推理成本将永远存在。
许多公司正在运行这些模型,但长期内维持这些成本将变得越来越困难。尽管专有模型在短时间内取得了巨大进展,但它们并不是唯一的选择。开源模型在灵活性、性能和成本节约方面也显示出巨大潜力,对于许多新兴公司来说,这可能是一个可行的选择。
主体段落3:开源与专有模型的重要性
与专有模型相比,我认为生成式AI并不是一个“赢者通吃”的游戏。尽管创新,这些模型仅仅触及了可能性的表面。最有趣的创新还未出现,而且将是开源的。就像在软件领域看到的那样,我们已经达到了一个企业在适当的地方采用专有和开源模型的混合方法的阶段。
已经有证据表明,开源将在生成式AI的传播中发挥重要作用。Meta的新LLaMA 2就是最新、最伟大的例证。还有LLaMA,这是一个强大但较小的模型,可以重新训练,成本约为8万美元,调整成本约为600美元。你可以在任何地方运行这个模型,甚至在Macbook Pro、智能手机或树莓派上。
与此同时,Cerebras推出了一系列模型,Databricks推出了Dolly,这是一个类似ChatGPT的开源模型,训练成本也较低且灵活。
结论:开源模型与数字化软件公司的未来
开源模型之所以开始蓬勃发展,是因为它们的灵活性;你可以在任何配备适当工具的硬件上运行它们。封闭的专有模型没有这种程度的灵活性和控制。这一切发生得如此之快,而且仅仅是个开始。
我们已经从开源软件社区中学到了许多宝贵的经验。如果我们使AI模型公开可访问,我们可以更好地促进创新。我们可以培养全球开发人员、研究人员和创新者的社区,为了更大的利益共同贡献、改进和定制模型。
如果我们能够实现这一目标,开发人员将有选择权,可以运行适合其特定需求的模型,无论是开源的、现成的还是定制的。在这个世界中,可能性是无限的。