MiniMax M2.5

MiniMax M2.5

MiniMax M2.5

国内AI公司MiniMax发布的采用激进[[混合专家(MoE)架构]]的大语言模型,以极低的Token消耗成本著称。

关键参数

  • 参数规模:2300亿参数,但每次查询仅激活100亿
  • 成本优势:执行复杂任务(如SWE-Bench)时的Token消耗成本仅为Claude Opus 4.6的1/30
  • 价格策略:被称为"智能廉价到不值得计量"

行业意义

MiniMax M2.5代表了国内厂商在推理成本竞争中的激进策略,是[[推理成本厘时代]]的重要推动力量,展示了MoE架构在平衡性能与成本方面的巨大潜力。

分享到