新京报贝壳财经讯(记者罗亦丹)北京时间6月17日,“AI六小龙”之一的上海AI独角兽企业MiniMax发布了其自主研发的MiniMax-M1系列模型,除去性能上的升级,贝壳财经记者注意到,其同类模型的价格低于DeepSeek-R1,和5天前首先降价的豆包1.6持平。


M1被定义为“全球首个开源的大规模混合架构推理模型”。技术报告显示,M1模型在处理百万级Token的长文本上实现了重大突破,成为上下文最长的推理模型;其RL(强化训练)成本下降一个量级,成本53万美金,推理效率则数倍于同类模型;在工具使用场景(TAU-bench)中MiniMax-M1-40k领跑所有开源权重模型,超过Gemini-2.5 Pro。


MiniMax-M1开源技术报告截图


定价方面,在输入区间0-32K范围内,M1模型的价格为输入0.8元/百万Tokens,输出8元/百万Tokens;32k-128k范围内,M1模型的价格为输入1.2元/百万Tokens,输出16元/百万Tokens。低于DeepSeek-R1模型,与6月12日火山引擎推出的豆包1.6价格持平。


值得注意的是,M1模型还推出了输入区间为128k-1M范围的模型价格,这一超长文本档位是DeepSeek-R1目前尚未覆盖的领域,豆包1.6上周公布价格的区间也截止到128K-256K范围。


根据MiniMaxg公布的技术报告,实现100万上下文输入这一突破的关键,在于其独创的Lightning Attention混合构架。传统Transformer模型在处理长序列时,注意力机制的计算量会随序列长度呈平方级增长,成为制约性能和成本的主要瓶颈。M1的混合架构,特别是注意力机制,能够显著优化上下文输入的计算效率。


报告提到,在进行8万Token的深度推理时,M1所需的算力仅为DeepSeek-R1的约30%;生成10万tokens时,推理算力只需要DeepSeek-R1的25%。这种极致的效率提升,直接转化为训练和推理阶段巨大的成本优势。


此外,在降本方面,MiniMax此次提出CISPO算法,另辟蹊径,通过裁剪重要性采样权重,而非传统算法中调整Token的更新方式,来提升强化学习的效率和稳定性。MiniMaxc称,实验数据显示,在AIME(AI-powered Moral Evaluator)等测试中,CISPO的收敛性能比字节跳动近期提出的DAPO算法快一倍,也显著优于DeepSeek早期使用的GRPO算法。


更快的收敛意味着更少的训练时间和资源消耗。得益于CISPO的高效,M1模型的整个强化学习阶段仅使用了512块英伟达H800 GPU,耗时三周,成本仅为53.5万美元。MiniMax官方表示,这一成本“比最初的预期少了一个数量级”。


MiniMax宣布,在其自有的App和Web端,M1模型将保持不限量免费使用,且M1的发布仅仅是MiniMax“开源周”的序幕,在接下来的四个工作日里,MiniMax计划每天发布一项新的技术或产品更新。


编辑 杨娟娟

校对 穆祥桐