$("body").append("")

开源AI全栈平台向OpenAI发起挑战,Together发布新服务支持LLaMA 2

494次阅读
没有评论

开源AI全栈平台向OpenAI发起挑战,Together发布新服务支持LLaMA 2

随着Meta发布商业许可的LLaMA 2,以及Startup Together推出新的全栈平台和云服务,企业和开发者在开源AI领域又迎来了一场挑战。Together早在今年4月就创建了RedPajama数据集,模仿了LLaMA数据集,现在已经支持50多个顶尖的开源AI模型,并将继续支持LLaMA 2。

Together的使命是在由大型科技公司主导创新的市场中,让AI模型变得更加开放和可访问。该创业公司于去年成立,总部位于加利福尼亚州门洛帕克。今年5月,Together宣布获得2000万美元的种子融资,用于构建开源生成式AI和云平台。

该公司的CEO Vipul Ved Prakash表示,开源与闭源之间存在明显的辩论,现在开源生态系统越来越强大,越来越多的企业选择开源模型,因为他们更看重数据隐私。

主体段落2:Together在上周推出了Together API和Together Compute,这两项云服务可以用于训练、微调和运行世界领先的开源AI模型。Together API采用高效的分布式训练系统,为大型AI模型提供优化的私有API端点,实现低延迟推断。对于希望在自己的数据集上进行预训练模型的AI/ML研究团队,Together Compute提供配备高端GPU的集群,并配备Together的分布式训练堆栈。

Ved Prakash表示,这样做的结果是大大提高了成本效率。例如,使用AWS的A100 GPU每小时需要4美元,而在Together平台上,使用A100 GPU托管一个RedPajama 70亿参数的模型每小时只需要12美分。

他解释道,这得益于上个月《华尔街日报》的一篇报道,关于大量因加密货币挖矿变化而闲置的GPU芯片。“随着以太坊网络(仅次于比特币的第二大加密货币)结束了挖掘新币和大量计算所需的实践,数千万个GPU变得可用,其中约20%的GPU可以重新用于训练AI模型。” Together租赁了数千个这样的GPU来支持其新的云服务。

主体段落3:尽管Together显然在企业领域挑战OpenAI和其他闭源、专有模型公司,但Ved Prakash认为,开源和闭源生态系统将并行存在。“我个人认为闭源模型公司最终将更加关注应用中心化,”他指出,比如Character AI在消费者导向的聊天机器人领域表现突出。“他们在这方面做得很好,他们的建模工作越来越集中在这个方向上。”

他解释说,与其他领域的操作系统和数据库类似,开源AI将成为更广泛适用的一组技术。“我认为,鉴于现在有开源解决方案适用于许多问题,闭源模型公司很难收取高价。”

结论:Together推出的开源AI全栈平台为开发者提供了一个更加开放和灵活的环境,促进了开源AI生态系统的发展。其支持的各类开源AI模型为企业和研究团队提供了丰富的资源,帮助他们在自己的数据集上进行训练和微调,并构建高度定制化的AI应用。

同时,Together的云服务在成本效率上有显著优势,这得益于充足的廉价GPU供应。通过推动开源AI技术的普及和使用,Together将促进AI技术的进一步发展,加速数字化转型和创新,为企业和开发者提供更多选择和机会。

尽管闭源和开源AI模型在不同领域会有各自的优势和应用场景,但开源AI生态系统的壮大将使AI技术更加普及和透明,促进技术的进步和发展。作为数字化软件公司的运营,我们对开源AI技术的发展和应用充满期待,相信Together等创新企业将继续推动AI技术的发展,为未来的数字化世界带来更多的可能性和惊喜。

正文完