AI 初创公司 Cohere 发布了 Command R7B,这是其 R 模型系列中最小、最快的模型,旨在支持广泛的企业用例,包括那些不需要昂贵、资源密集型大型语言模型(LLM)的用例。Command R7B 旨在支持快速原型设计和迭代,并使用检索增强生成(RAG)来提高其准确性。该模型具有 128K 的上下文长度,支持 23 种语言。Cohere 表示,在包括数学和编码在内的任务中,它优于同类开放权重模型中的其他模型,如 Google 的 Gemma、Meta 的 Llama 和 Mistral 的 Ministral。Cohere 联合创始人兼首席执行官 Aidan Gomez 在一篇博客文章中宣布了这一新模型,他写道:“该模型专为需要优化其用例的速度、成本性能和计算资源的开发人员和企业而设计。”Cohere 一直专注于企业及其独特的用例。该公司在 3 月份推出了 Command-R,在 4 月份推出了强大的 Command R+,并在全年进行了升级,以支持速度和效率。它将 Command R7B 称为其 R 系列中的“最终”模型,并表示将向 AI 研究社区发布模型权重。Cohere 指出,在开发 Command R7B 时,一个关键的重点领域是提高在数学、推理、代码和翻译方面的性能。该公司似乎在这些领域取得了成功,新的较小模型在与类似大小的开放权重模型(包括 Gemma 2 9B、Ministral 8B 和 Llama 3.1 8B)的比较中,在 HuggingFace 开放 LLM 排行榜上名列前茅。此外,R 系列中最小的模型在包括 AI 代理、工具使用和 RAG 在内的领域中表现优于竞争模型,RAG 通过将模型输出基于外部数据来提高准确性。Cohere 表示,Command R7B 在对话任务方面表现出色,包括技术工作场所和企业风险管理(ERM)协助、技术事实、媒体工作场所和客户服务支持、人力资源常见问题解答和总结。Cohere 还指出,该模型在金融环境中检索和操作数字信息方面“非常出色”。总的来说,Command R7B 在重要的基准测试中平均排名第一,包括指令遵循评估(IFeval)、大基准硬(BBH)、研究生级 Google 证明问答(GPQA)、多步软推理(MuSR)和大规模多任务语言理解(MMLU)。Command R7B 可以使用包括搜索引擎、API 和向量数据库在内的工具来扩展其功能。Cohere 报告称,该模型的工具使用在伯克利函数调用排行榜上表现强劲,该排行榜评估模型在函数调用(连接到外部数据和系统)方面的准确性。Gomez 指出,这证明了它在“真实世界、多样化和动态环境”中的有效性,并消除了对不必要的调用函数的需求。这可以使其成为构建“快速和强大”的 AI 代理的良好选择。例如,Cohere 指出,当作为互联网增强搜索代理运行时,Command R7B 可以将复杂的问题分解为子目标,同时在高级推理和信息检索方面表现良好。由于它很小,Command R7B 可以部署在低端和消费级 CPU、GPU 和 MacBooks 上,允许进行设备上的推理。该模型现已在 Cohere 平台和 HuggingFace 上提供。定价为每 100 万个输入令牌 0.0375 美元,每 100 万个输出令牌 0.15 美元。Gomez 写道:“对于寻求基于其内部文档和数据的成本效益模型的企业来说,这是一个理想的选择。”