$("body").append("")

Nvidia 的 AI Workbench 为工作站带来模型微调

447次阅读
没有评论

Nvidia 的 AI Workbench 为工作站带来模型微调

随着人工智能领域的迅速发展,NVIDIA在SIGGRAPH(全球计算机图形学和交互技术会议)上宣布推出了一款名为“NVIDIA AI Workbench”的全新平台。该平台旨在让用户能够在个人电脑或工作站上创建、测试和定制生成式人工智能模型,然后再将其扩展到数据中心和公共云上运行。

NVIDIA创始人兼首席执行官黄仁勋在SIGGRAPH上的主题演讲中表示:“为了使这项能力普及化,我们必须让它能够在几乎所有地方运行。”

AI Workbench通过基本界面在本地工作站上运行,开发人员可以使用它微调和测试来自Hugging Face和GitHub等流行资源库的模型,利用专有数据进行定制,并在需要扩展时访问云计算资源。

Nvidia的企业计算副总裁Manuvir Das表示,推出AI Workbench的初衷是解决大规模AI模型定制的挑战和耗时性。企业级AI项目可能需要在多个资源库中寻找合适的框架和工具,当项目需要从一种基础设施迁移到另一种基础设施时,这一过程会更加复杂。

据KDnuggets数据科学和业务分析平台的一项调查显示,将企业模型投入生产的成功率较低。大多数参与调查的数据科学家表示,在部署机器学习模型之前,80%或更多的项目会中断。Gartner提供的另一个估计表明,由于基础设施障碍,近85%的大数据项目失败。

Das在一份声明中表示:“全球各地的企业都在竞相寻找适合的基础设施,构建生成式人工智能模型和应用。”他还补充道:“NVIDIA AI Workbench为跨部门团队提供了一个简化的路径,用于创建在现代业务中越来越重要的基于人工智能的应用。”

尽管AI Workbench的“简化路径”尚待验证,但正如Das所指出的那样,AI Workbench允许开发人员从开源资源中汇集模型、框架、SDK和库(包括数据准备和数据可视化库)到统一的工作区。随着对生成式人工智能的需求增长,出现了许多工具,专注于将大型通用模型微调为特定用例。一些创业公司旨在使公司和个人开发者能够在不花费高昂云计算费用的情况下,根据自己的需求定制模型。

NVIDIA的AI Workbench提供了一种更分散的模型微调方法,即在本地计算机上进行,而不是在云服务上。这对NVIDIA来说是有意义的,因为其产品组合中的人工智能加速GPU将受益。但除了商业动机外,这种分散的方法可能会吸引那些不想受制于单一云服务的开发人员,让他们能够在本地机器上进行人工智能模型实验。

NVIDIA AI Workbench的推出标志着人工智能领域的又一次创新突破。通过允许开发人员在本地进行模型微调,NVIDIA为企业提供了更加灵活和分散的方式来定制和优化生成式人工智能模型。这将有助于加速人工智能技术在现代

业务中的应用,提高生产效率,同时为开发人员提供更多选择,促进行业创新的持续发展。

正文完