$("body").append("")

OpenAI 推出新推理模型 o3 和 o3 mini,引领 AI 发展新方向

343次阅读
没有评论

OpenAI 推出新推理模型 o3 和 o3 mini,引领 AI 发展新方向
OpenAI 邀请部分用户测试新推理模型 o3 和 o3 mini
OpenAI 正在慢慢邀请选定的用户测试一组全新的推理模型,名为 o3 和 o3 mini,它们是本月早些时候刚刚全面发布的 o1 和 o1-mini 模型的后续产品。

避免版权问题,命名为 o3
OpenAI o3 的命名是为了避免与电话公司 O2 的版权问题,而且首席执行官 Sam Altman 表示,该公司“有一个传统,就是名字真的很糟糕”。今天,在“OpenAI 12 天”直播的最后一天,该公司宣布了这一消息。

两款新模型将首先发布给选定的第三方研究人员进行安全测试
Altman 表示,这两款新模型将首先发布给选定的第三方研究人员进行安全测试,o3-mini 预计将于 2025 年 1 月底发布,o3“紧随其后”。

Altman 对新模型的评价
Altman 说:“我们认为这是 AI 下一阶段的开始,你可以使用这些模型来完成越来越复杂的任务,这些任务需要大量的推理。”“在这次活动的最后一天,我们认为从一个前沿模型转向另一个前沿模型会很有趣。”

Google 推出 Gemini 2.0 Flash Thinking 模型
就在一天前,谷歌发布并允许公众使用其新的 Gemini 2.0 Flash Thinking 模型,这是另一个竞争对手的“推理”模型,与 OpenAI 的 o1 系列不同,它允许用户以文本要点的形式查看其“思考”过程的步骤。

o3 的发布表明竞争进入新阶段
Gemini 2.0 Flash Thinking 的发布以及现在 o3 的宣布表明,OpenAI 和谷歌之间的竞争,以及更广泛的 AI 模型提供商领域,正在进入一个新的激烈阶段,因为他们不仅提供 LLM 或多模态模型,还提供先进的推理模型。这些模型可以更适用于科学、数学、技术、物理等领域的更难问题。

o3 模型在第三方基准测试中表现最佳
Altman 还表示,o3 模型“在编码方面非常出色”,OpenAI 分享的基准测试支持这一点,显示该模型在编程任务上的表现甚至超过了 o1。

o3 在编码方面的卓越表现

  • o3 在 SWE-Bench Verified 上超过 o1 22.8 个百分点,在 Codeforces 上的评级为 2727,超过了 OpenAI 首席科学家的 2665 分。

    o3 在数学和科学方面的掌握
  • o3 在 AIME 2024 考试中得分为 96.7%,仅错过一道题,在 GPQA Diamond 上得分为 87.7%,远远超过人类专家的表现。

    o3 在前沿基准测试中的表现
  • 该模型在 EpochAI 的前沿数学测试中创下了新纪录,解决了 25.2%的问题,而其他模型的解决率均不超过 2%。在 ARC-AGI 测试中,o3 的得分是 o1 的三倍,超过了 85%(经 ARC Prize 团队现场验证),这代表了概念推理方面的一个里程碑。

    审慎对齐
    除了这些进步,OpenAI 还加强了对安全和对齐的承诺。

    公司引入了关于审慎对齐的新研究
    该公司引入了关于审慎对齐的新研究,这是一种使 o1 成为迄今为止最稳健和对齐的模型的技术。

    该技术将人类编写的安全规范嵌入到模型中
    该技术将人类编写的安全规范嵌入到模型中,使它们能够在生成响应之前明确地考虑这些政策。

    该策略旨在解决 LLM 中的常见安全挑战
    该策略旨在解决 LLM 中的常见安全挑战,如容易受到越狱攻击和对良性提示过度拒绝,通过为模型配备思维链(CoT)推理。这个过程允许模型在推理过程中动态地回忆和应用安全规范。

    审慎对齐改进了以前的方法
    审慎对齐改进了以前的方法,如基于人类反馈的强化学习(RLHF)和宪法 AI,这些方法仅依赖于安全规范进行标签生成,而不是将政策直接嵌入到模型中。

    通过微调 LLM 对安全相关提示及其相关规范
    通过微调 LLM 对安全相关提示及其相关规范,这种方法创建了能够进行政策驱动推理的模型,而不需要严重依赖人类标记的数据。

    OpenAI 研究人员在一篇新的非同行评审论文中分享的结果表明
    OpenAI 研究人员在一篇新的非同行评审论文中分享的结果表明,这种方法提高了安全基准的性能,减少了有害输出,并确保了更好地遵守内容和风格指南。

    关键发现突出了 o1 模型相对于前身的进步
    关键发现突出了 o1 模型相对于前身(如 GPT-4o)和其他最先进模型的进步。审慎对齐使 o1 系列能够在抵抗越狱和提供安全完成方面表现出色,同时最大限度地减少对良性提示的过度拒绝。此外,该方法还促进了分布外的泛化,在多语言和编码越狱场景中显示出了鲁棒性。这些改进符合 OpenAI 的目标,即在其能力增长的同时,使 AI 系统更安全、更可解释。

    这项研究也将在对齐 o3 和 o3-mini 方面发挥关键作用
    这项研究也将在对齐 o3 和 o3-mini 方面发挥关键作用,确保它们的能力既强大又负责任。

    如何申请访问测试 o3 和 o3-mini
    现在可以在 OpenAI 网站上申请早期访问,申请将于 2025 年 1 月 10 日截止。

    申请人需要填写在线表格
    申请人需要填写在线表格,要求提供各种信息,包括研究重点、过去的经验、以前发表的论文和他们在 Github 上的代码库的链接,并选择他们希望测试的模型(o3 或 o3-mini),以及他们计划使用它们的用途。

    选定的研究人员将获得访问 o3 和 o3-mini 的权限
    选定的研究人员将获得访问 o3 和 o3-mini 的权限,以探索它们的能力并为安全评估做出贡献,尽管 OpenAI 的表格警告说 o3 将在几周内不可用。

    鼓励研究人员进行强有力的评估
    鼓励研究人员进行强有力的评估,创建高风险能力的受控演示,并在广泛采用的工具无法实现的场景中测试模型。

    这一举措建立在公司既定的实践基础上
    这一举措建立在公司既定的实践基础上,包括严格的内部安全测试、与美国和英国 AI 安全研究所等组织的合作,以及其准备框架。
正文完