MiniMax发布全球首个开源大规模混合架构推理模型M1,挑战行业巨头
时间:2025-06-17 16:15
小编:小世评选
6月17日凌晨,MiniMax,这个近年来崭露头角的AI科技公司之一,正式发布了全球首个开源大规模混合架构推理模型M1,并宣布了为期五天的持续更新计划,备受瞩目。作为大模型时代的参与者,“大模型六小虎”中,MiniMax的这一举措成为行业内的一次震动,向诸多行业巨头发出了挑战的信号。
M1模型以其前所未有的参数规模引领业界,达到4560亿个参数,每个token激活的参数数量扩大至459亿。这一设计理念为处理复杂任务提供了强大的算力基础,其输入长度的设计上与谷歌的闭源模型Gemini 2.5 Pro保持一致,达到了DeepSeek-R1的8倍。这种优势不仅体现在处理能力上,MiniMax还为M1训练了两个版本,以满足更高的思考预算要求,分别为40K和80K,从而推动智能模型在推理过程中的表现。
通过对比标准基准测试集,MiniMax的M1在多项指标上均表现出色,超越了DeepSeek-R1、Qwen3-235B等多款开源模型,显示了其在软件工程、长上下文处理、工具使用等领域的强大能力。研究人员在M1的强化学习训练阶段,成本控制的表现也让人惊喜,相较于初始的成本预期降低了一个数量级,这为开发者提供了更具吸引力的选择。
在用户体验和服务方面,M1在MiniMax的移动应用和网页上都实现了不限量的免费使用,带来了更大程度的开放性和可探索性。而其API价格也设定得相当实惠,分为三个档次,第一档的输入和输出价格分别为0.8元与8元/百万token,第二档稍微上调,第三档则是M1的绝对优势区,显著低于DeepSeek-R1等竞争者,模型的使用门槛得到了相应的降低。
与MiniMax同时发布的是另外一家同行公司——月之暗面,他们推出了开源代码模型Kimi-Dev,展现出强过DeepSeek-R1的编程能力。这一背景下,MiniMax的M1是其市场竞争力的增强,继续在领域内占据话语权。
根据行业内部对M1的评测数据,基于17个主流的评测集,该模型在标准测试中表现出色。在MRCR测试中,该测试关键评估大语言模型在复杂背景下的区分能力,M1在该项测试中表现稳定。在SWE-bench Verified和特殊领域测试(如TAU-bench航空业和零售业)中,M1同样展现出强劲的性能。尤其是M1的不同版本,在不同任务中的表现差异,以及80k与40k的效能对比,为开发者提供了更多实际的参考。
M1的技术架构引入了闪电注意力机制,使得在生成长文本时,仅需消耗相对较少的计算资源,这使得M1非常适合处理长输入及复杂推理任务。同时,大规模的强化学习训练方法使得其应用场景涵盖了从传统的数学推理到基于真实环境的软件工程等多个维度,这一创新策略表明MiniMax对未来算法发展方向的深入思考。
MiniMax在新模型的构建中,除了采用CISPO新算法提升性能外,其独特的混合注意力机制设计在面对扩展强化学习时,显著提升了RL的效率,解决了当前市面上主流模型在类似场景下的局限性。在AIME实验中,CISPO显然表现过其他RL变体,显示了在相似训练步骤下,CISPO的稳健性和高效性。
随着复杂应用场景不断涌现,大语言模型在推理阶段需要动态地增补计算资源与步骤。这也意味着,未来的AI将越来越依赖“Language-Rich Mediator”——即富语言中介,来支持其与环境、工具和其他计算系统的高效交互。这种对复杂场景的适应,将塑造未来机器学习和人工智能的演进方向。
MiniMax推出的M1模型,展现了其在算法创新上的潜力,打破了行业巨头的垄断局面,为广大开发者和AI应用提供了新的可能性。随着开源文化的进一步发展和推广,M1将推动人工智能技术的进一步普及与应用。而更多的开发者也将借此机会,探索AI与各行各业结合的更多前景。