MiniMax M2.5
国内AI公司MiniMax发布的采用激进[[混合专家(MoE)架构]]的大语言模型,以极低的Token消耗成本著称。
关键参数
- 参数规模:2300亿参数,但每次查询仅激活100亿
- 成本优势:执行复杂任务(如SWE-Bench)时的Token消耗成本仅为Claude Opus 4.6的1/30
- 价格策略:被称为"智能廉价到不值得计量"
行业意义
MiniMax M2.5代表了国内厂商在推理成本竞争中的激进策略,是[[推理成本厘时代]]的重要推动力量,展示了MoE架构在平衡性能与成本方面的巨大潜力。