OpenAI推出全新开源AI推理模型gpt-oss-20b与gpt-oss-120b
时间:2025-08-07 08:35
小编:小世评选
2023年8月6日,OpenAI宣布推出其全新开源AI推理模型gpt-oss-20b和gpt-oss-120b。这一发布标志着自2019年开源GPT-2以来,OpenAI首次面向公众推出开源模型,引发了业界的广泛关注。这两款模型不仅在参数规模上各有特点,还在应用领域和运行环境上展现了不同的优势,进一步推动了AI技术的普及与发展。
gpt-oss-120b模型拥有1170亿总参数和51亿激活参数,其性能与OpenAI的o4-mini相当。这款模型针对的是对推理能力有较高需求的场景,能够在单张80GB显存的H100 GPU上运行,适用于数据中心的生产环境,以及要求较高的高端台式机和笔记本电脑用户。使用gpt-oss-120b可以有效满足企业级应用的需求,如大规模数据分析、复杂任务处理等,有助于提高企业的工作效率和创新能力。
与之相比,gpt-oss-20b模型则更专注于低延迟操作,其总参数为210亿,激活参数为36亿。在常用的基准测试中,gpt-oss-20b的表现与OpenAI的o3-mini相似,只需16GB内存便可顺利运行。这使得gpt-oss-20b非常适合在多数台式机、笔记本电脑甚至手机上使用,为普通用户和专业开发者提供了更为便捷的AI技术接入通道。该模型特别适合那些需要快速反应和实时处理的应用场景,如语音助手、客户服务机器人以及数据交互等。
OpenAI选择采用宽松的Apache 2.0许可证,使得gpt-oss-20b和gpt-oss-120b的使用更加灵活。开发者可以在不触犯版权或专利风险的前提下,自由构建与修改模型。这一做法大大降低了AI实现过程中可能遇到的法律障碍,为创作者和企业在AI领域的探索与创新提供了宽松的环境。
除了灵活的使用规定,gpt-oss-20b和gpt-oss-120b还具备多项先进的功能。它们支持配置推理投入,使得用户能够根据实际需求调整模型的性能输出。同时,这两款模型都拥有完整的思维链,支持微调和智能体能力的构建,用户可以根据自己的需求对模型进行个性化定制。在层出不穷的AI应用需求面前,这种可配置性将大大提高模型的适应性与实用性。
OpenAI还针对这两款新模型采用了原生MXFP4量化技术,使得模型在输入与输出阶段的性能表现更加出色。这种技术的引入,不仅可以显著降低计算资源的消耗,还能提高模型的推理速度。在面临日益增长的AI应用压力时,MXFP4量化能够帮助开发者更高效地利用硬件资源,从而推动AI技术在各行业的落地应用。
值得注意的是,开源模型的发布会促进AI研究的进一步进展。开发者和研究人员可以基于这两款模型进行更深入的研究与探索,在不断迭代优化的过程中,将更具创新性和适用性的AI应用带入市场。而随着越来越多的企业与个人积极参与到开源生态中,AI技术的民主化和普及化也将迎来新的发展契机。
OpenAI此次推出的gpt-oss-20b和gpt-oss-120b模型标志着开源AI推理技术进入了一个崭新的阶段。这些模型不仅具有强大的性能与灵活的应用场景,更以开放的姿态欢迎开发者的加入,有望在未来的AI产业中发挥重要作用。随着这一推动,期待更多前沿的AI应用陆续问世,推动社会各领域的变革与发展。