比Gemini还狠?MiniMax-M1上线,支持100万输入+8万输出
发布时间:2025-06-18 点击率:70
中国AI公司 MiniMax 正式宣布开源其新一代推理模型 MiniMax-M1 ,该模型以 4560亿参数规模、2.8亿激活参数 构建,原生支持 100万个token输入和8万个token输出 ,是目前全球首个开放权重的大规模混合注意力推理模型。
 
这一重磅发布的背后,不仅标志着中国企业在大模型研发领域持续突破边界,更意味着长上下文处理能力正式迈入“百万级”时代。
 
MiniMax-M1 是基于此前发布的 MiniMax-Text-01 模型进一步优化而来,采用了以下核心技术:
 
  • MoE(混合专家)架构 :提升模型扩展性和效率。
  •  
  • 闪电注意力机制 :实现高效计算扩展,尤其适用于长文本生成。
  •  
  • 强化学习训练 :涵盖数学推理、沙盒环境编程、工具调用等复杂任务。
 
凭借这些创新设计,MiniMax-M1 在多个关键指标上超越当前主流开源模型,甚至接近国际领先水平。
 
核心功能亮点
 
支持百万级上下文长度
 
MiniMax-M1 原生支持高达 100万token的输入长度 ,是 DeepSeek R1 的 8倍 ,与 Google Gemini 2.5 Pro 相当。同时支持 8万token输出长度 ,非常适合处理长文档、多轮对话、代码理解等需要深度上下文的任务。
 
高效推理与成本优化
 
为适应不同场景,MiniMax-M1 提供两种推理预算版本:
 
  • 40K token 版本
  •  
  • 80K token 版本
 
通过闪电注意力机制优化计算资源使用,在生成 100K token 时,FLOPs 仅为 DeepSeek R1 的 25% ,显著降低推理成本。
 
多领域任务优化
 
MiniMax-M1 经过大规模强化学习训练,擅长处理多种高难度任务,包括:
 
  • 数学推理
  •  
  • 软件工程与编程任务
  •  
  • 长上下文理解
  •  
  • 工具调用与结构化输出
 
它能够识别并输出外部函数调用参数,便于与各类工具系统集成,具备极强的可操作性。
 
性能表现亮眼,对标国际顶尖水平
 
根据官方测试结果,MiniMax-M1 在多项标准基准测试中展现出卓越性能:
 
 
MiniMax 官方表示,该模型在性价比方面达到行业领先水平,是当前最具实用价值的开源推理模型之一。
 
 
开放共享,推动AI普惠发展
 
MiniMax-M1 的开源发布,无疑将进一步推动长上下文、高效推理、工具调用等方向的研究与应用落地。对于科研机构、开发者社区以及企业用户来说,这不仅是一个强大的基础模型,更是构建下一代 AI 代理、自动化系统和智能助手的理想选择。
 
项目官网:https://chat.minimaxi.com/
 
GitHub:https://github.com/MiniMax-AI/MiniMax-M1
 

上一篇: MNN TaoAvatar -...

下一篇: 没有了