MiniMax 稀宇科技发布首个开源推理模型 MiniMax-M1,打破行业记录
时间:2025-07-01 09:55
小编:小世评选
近日,MiniMax 稀宇科技宣布将连续五天推出一系列重大更新,其中首个开源推理模型——MiniMax-M1引起了广泛关注。作为全球首个开源的大规模混合架构的推理模型,MiniMax-M1在众多技术参数和性能指标上均表现优异,打破了行业的诸多记录,具有重要的里程碑意义。
根据MiniMax官方的介绍,MiniMax-M1旨在为生产力复杂场景提供更强大的支持,其能力在开源模型中处于顶尖行列,甚至超越了许多国内闭源模型,并且逐渐逼近国际领先水平。特别是在性价比上,其优势更是不容小觑。
创新技术支持高效训练
MiniMax-M1的成功离不开其两大创新技术的支持。在模型的训练过程上,MiniMax-M1的表现超出预期,仅用了短短三周时间,并依托512块H800 GPU的强大算力完成了强化学习训练阶段。更令人惊讶的是,整个过程的算力租赁成本仅为53.47万美元(约合384.1万人民币),比最初的预期大幅降低了一个数量级,这一成果展现了MiniMax团队在资源利用和性能优化上的卓越能力。
超长上下文的处理能力
MiniMax-M1的一个显著优势在于其支持的上下文输入长度高达100万,这一水平在业内首屈一指。与Google的闭源模型Gemini 2.5 Pro相比,其输入能力相当于DeepSeek R1的8倍。同时,M1的推理输出长度可达到行业最长的8万Token,这是许多目标模型所无法企及的。这一切都得益于MiniMax独创的闪电注意力机制,它为长上下文的输入计算和深度推理提供了显著的效率支持。
在使用8万Token进行深度推理时,MiniMax-M1所耗费的算力仅为DeepSeek R1的30%。这一特性保证了在训练和推理中的算力效率优势,为开发者和企业节省了大量的成本和时间。
强化学习算法的突破
除了上下文处理能力外,MiniMax-M1的强化学习算法CISPO同样值得关注。该算法通过裁剪重要性采样权重的方式,提高了强化学习的效率,这是与传统的token更新机制形成鲜明对比的一大创新。在AIME实验中,CISPO的收敛性能相比于最近字节推出的DAPO算法快了一倍,并且明显优于DeepSeek之前使用的GRPO算法。
卓越的行业表现
基于上述技术创新,MiniMax-M1在各类性能评测中表现不俗。在软件工程、长上下文理解以及工具使用等复杂场景的基准测试中,MiniMax-M1展现出的优势尤为明显。在SWE-bench验证基准上,MiniMax-M1-40k和MiniMax-M1-80k分别以55.6%和56.0%的优异成绩取得了骄人的成绩,虽然略逊于DeepSeek-R1-0528的57.6%,但在众多开源模型中,它们的表现依旧出类拔萃。
在长上下文理解任务中,M1系列是性能最强的模型之一,全面超越所有开源模型,甚至在某些测试中还胜过OpenAI的o3和Claude 4 Opus,全球排名仅次于Gemini 2.5 Pro。在代理工具使用场景测试(TAU-bench)中,MiniMax-M1-40k同样表现出色,无畏挑战,打败了Gemini-2.5 Pro。
可持续的发展方向
除了MiniMax-M1的突出性能外,MiniMax稀宇科技还计划在的四个工作日内陆续推出更多更新。官方标明,详细的技术报告及完整的模型权重将在其Hugging Face和GitHub账号上发布,便于用户获取和使用。同时,vLLM和Transformer两个开源项目也为推理部署提供了支持,而MiniMax方面则与SGLang合作推进相关工作,确保技术的广泛应用。
鉴于高效的训练与推理算力的使用,MiniMax App及Web上将保持不限量免费使用,同时以业内最低的价格提供API服务。具体费用分层为:在0-32k输入长度的情况下,输入费用为0.8元/百万token,输出为8元/百万token;在32k-128k的输入长度下,输入为1.2元/百万token,输出为16元/百万token;在最长的128k-1M输入情况下,输入为2.4元/百万token,输出为24元/百万token。这些策略不仅展现了MiniMax的透明化定价理念,也突显了其在行业中的竞争优势。
MiniMax 稀宇科技的推出的MiniMax-M1不仅是技术创新的结合,更是为行业树立了新的标杆,值得各界广泛关注和认可。期待在的日子里,MiniMax能不断推动AI发展的边界,带来更多惊喜。