免费安卓手游下载、分享游戏攻略、电脑硬件资讯、数码科技最新资讯
当前位置: 首页 > 硬件资讯 > OpenAI开源新语言模型gpt-oss-120b与gpt-oss-20b 运行效率卓越

OpenAI开源新语言模型gpt-oss-120b与gpt-oss-20b 运行效率卓越

时间:2025-08-07 05:35

小编:小世评选

近期,OpenAI掀起了一波人工智能领域的热潮,正式向公众开源了两款大型语言模型——gpt-oss-120b和gpt-oss-20b。这是自发布GPT-2以来,OpenAI再次主动向开源社区贡献其深厚的研究成果。这一举动不仅为开发者提供了更为丰富的工具,也进一步推动了人工智能技术的普及和应用。

我们来看这两款模型的具体参数。gpt-oss-120b拥有1170亿个参数,而gpt-oss-20b则包含210亿个参数。尽管这些模型的规模庞大,但它们在运行效率上却异常突出。以gpt-oss-120b为例,只需80GB的内存便能在单张H100 GPU上顺利运行。而对于gpt-oss-20b,只需要16GB内存的显卡,比如4060 Ti,便能轻松响应各种请求,这点对于中小型开发者来说是个好消息。

从性能角度来看,gpt-oss-120b的设计目标是与OpenAI自家的o4-mini相抗衡,而gpt-oss-20b则是针对o3-mini进行优化。根据OpenAI的评测数据显示,gpt-oss-120b在多个领域的测试中表现不俗。在Codeforces(代码竞赛)、MMLU&HLE(多模态语言理解和人类常识评估)以及TauBench(工具调用基准测试)等领域,都展现出了强劲的实力。在HealthBench(健康信息查询)及AIME(数学竞赛)等项目上,gpt-oss-120b更是以卓越的性能实现了超越,令业界为之一振。而gpt-oss-20b同样让人眼前一亮,在性能表现方面与o3-mini不相上下,在某些特定的测试中甚至胜过了对手。

开放源代码意味着这两款模型都遵循Apache 2.0开源协议,这让开发者在使用过程中能够开展商业化应用,而无需担忧相关专利和法律问题。OpenAI在模型特性方面也做了不少创新,提供了可调推理强度、透明思维链条、支持微调及Agent友好等功能,尤其是原生MXFP4量化的引入,更使得gpt-oss-120b能够在单张H100显卡上高效运作,而gpt-oss-20b运行所需的显存仅为16GB,这为开发者提供了更多灵活的选择。

为了方便广大的开发者进行使用,OpenAI已将这两款模型上架在Hugging Face,开发者们可以借助Transformers、vLLM、PyTorch/Triton、Ollama及LM Studio等多种流行框架来直接调用这些模型。同时,OpenAI也提供了详尽的部署指南,帮助开发者快速上手,降低了技术门槛。

不过,尽管gpt-oss系列模型在多个方面都备受瞩目,却也引发了不少讨论与质疑。有用户发现,在某些对比测试中,gpt-oss-120b的表现并未如预期般明显领先于其他同时期的竞争者,如106B参数的GLM-4.5-Air等。这一发现不禁让一些开发者重新审视gpt-oss模型的实际应用价值,认为在某些具体场景下,它们的优势并不如宣传时所描绘的那般显著。

面对这些质疑,OpenAI表示,他们将持续关注社区反馈,计划定期更新和优化模型性能,以确保其在不断演变的市场环境中保持竞争力。OpenAI鼓励开发者积极参与到gpt-oss系列模型的测试和调优中,以共同推进人工智能技术的进步与应用。

值得一提的是,gpt-oss系列模型的开源发布不仅为开发者提供了更好的研究基础,促进了全球范围内的知识共享,也为人工智能领域的创新和商业应用提供了广阔的空间。未来,随着更多开发者参与,gpt-oss模型有望在实际应用中不断优化,进一步提升其性能和可靠性,从而更好地服务于各类行业需求。

OpenAI推出的gpt-oss-120b与gpt-oss-20b,既是技术进步的体现,也是对开源社区的积极回馈。尽管仍然面临一些挑战,但这一系列模型的出现为人工智能技术的普及与进步提供了新的动力和契机,让我们拭目以待未来的更多可能性。

精品推荐

相关文章

猜你喜欢

更多

热门文章

更多