国产MiniMax推出全球首个开源大规模混合架构推理模型M1 性能领先赛深度模型
时间:2025-06-20 14:40
小编:小世评选
6月17日,国产人工智能初创公司MiniMax(希宇科技)隆重推出了其全球首个开源的大规模混合架构推理模型M1。这一创新型产品取得了显著的成就,其性能不仅超越了国内现存的一些闭源模型,还在多个基准测试中接近最新版的DeepSeek R1以及全球领先的其他深度学习模型。更为重要的是,MiniMax M1在效率和性价比方面表现出色,为业内注入了一股新的活力。
根据MiniMax官方发布的对比报告显示,MiniMax M1在多个测评中与DeepSeek R1、Qwen3等开源模型并驾齐驱,甚至在某些任务上靠近OpenAI的O3等国际顶尖模型。尤其着眼于推理能力,M1所支持的最长上下文输入高达100万字,而这一数字与闭源模型中的Google Gemini 2.5 Pro相当,是DeepSeek R1的八倍之多。M1的理论推理输出长度也达到了业界最高的8万Token,表现出极大的潜力。
MiniMax的这一成就得益于其创新的Lightning Attention机制,这一机制极大地提高了模型的训练与推理效率,使M1在处理长上下文输入和进行复杂推理时具有显著的优势。例如,在进行8万Token的深度推理时,M1所需的计算资源仅为DeepSeek R1的30%左右,大幅降低了算力成本。这种高效的计算能力使得M1在训练和推理过程中展现出令人瞩目的算力优势。
除了Lightning Attention机制,MiniMax还推出了一种新的强化学习算法CISPO,该算法通过裁剪重要性采样权重,显著提高了强化学习的效率。在实际测试中,MiniMax发现CISPO比字节跳动近期提出的DAPO等算法在收敛性上提高了一倍,超越了DeepSeek最早使用的GRPO算法。这些技术创新保证了强化训练过程的高效性,使得整个训练周期的算力使用大大低于预期,仅用了512块H800的算力,耗时三周,租赁成本仅为53.47万美元。
MiniMax M1在行业认可的17个评测集上的表现同样不容小觑。在长上下文理解任务中,M1的成绩仅与Google的Gemini 2.5 Pro有微小差距,而在代理工具的应用方面(TAU-bench)中,M1则取得了对Gemini 2.5 Pro的胜利。这些优秀的表现使得MiniMax倍受关注。
为了让更多的用户尝试这一创新技术,MiniMax宣布在其APP和官方网站上实现不限量的免费使用。同时,为了满足不同用户的需求,MiniMax还推出了行业最低价的API服务。在0-32k的输入长度下,用户只需支付0.8元人民币每百万Token的输入费用,输出则为8元每百万Token;在32k-128k区间内,输入费用为1.2元每百万Token,输出费用为16元每百万Token;而在最长的128k-1M的输入长度时,输入金额为2.4元每百万Token,输出为24元每百万Token。前两种模式的性价比均高于DeepSeek R1,并且后者在更长输入长度上无能为力。
MiniMax的这一系列举措,不仅有效吸引了大量关注,同时也推动了整个行业的竞争态势。通过开源和提供高性价比服务,MiniMax不仅为自身赢得了良好的市场口碑,还向全球展示了中国在人工智能领域的创新实力和发展潜力。
随着MiniMax M1的发布,人工智能技术的应用前景将进一步拓宽,而这一具有创新性的混合架构推理模型也将成为推动行业进步的重要力量。未来,期待MiniMax能够持续创新,为行业发展贡献更多的智能化解决方案。