小米首个推理大模型开源
2025-04-30 11:10 星期三
财联社
①小米开源首个为推理而生的大模型「Xiaomi MiMo」,在数学推理和代码竞赛公开测评集上,MiMo-7B 超越了 OpenAI 的 o1-mini;
②MiMo-7B 的数学&代码领域的强化学习潜力显著领先于经典开源32B模型。

财联社4月30日讯,据“小米大模型”公众号消息,今天,小米开源首个为推理(Reasoning)而生的大模型「Xiaomi MiMo」,联动预训练到后训练,全面提升推理能力。

在数学推理(AIME 24-25)和 代码竞赛(LiveCodeBench v5)公开测评集上,MiMo 仅用 7B 的参数规模,超越了 OpenAI 的闭源推理模型 o1-mini 和阿里 Qwen 更大规模的开源推理模型 QwQ-32B-Preview。

image

强化学习潜力超越经典开源32B模型

随着DeepSeek-R1引发业界强化学习(RL)共创潮,DeepSeek-R1-Distill-7B和Qwen2.5-32B已成为广泛使用的强化学习起步模型。

在相同RL训练数据情况下,MiMo-7B 的数学&代码领域的强化学习潜力显著领先。

image

预训练+后训练,联动提升推理能力

MiMo推理能力的提升,由预训练和后训练阶段中数据和算法等多层面的创新联合驱动,包括:

预训练:核心是让模型见过更多推理模式

数据:着重挖掘富推理语料,并合成约200B tokens推理数据。

训练:进行了三阶段训练,逐步提升训练难度,总训练25T tokens。

image

后训练:核心是高效稳定的强化学习算法和框架

算法:提出 Test Difficulty Driven Reward 来缓解困难算法问题中的奖励稀疏问题,并引入 Easy Data Re-Sampling 策略,以稳定 RL 训练。

框架:设计了Seamless Rollout系统,使得RL训练加速2.29倍,验证加速1.96倍。

image

所有技术细节已经Open,见技术报告:

https://github.com/XiaomiMiMo/MiMo/blob/main/MiMo-7B-Technical-Report.pdf

MiMo-7B全系列已开源

MiMo-7B 已开源4个模型至HuggingFace:https://huggingface.co/XiaomiMiMo

image

About Xiaomi MiMo

MiMo 来自全新成立不久的「小米大模型Core团队」的初步尝试。

2025年虽看似是大模型逐梦的后半程,但我们坚信AGI的征途仍漫长。

我们将从务实创新出发,勇敢探索未知,用思考突破智能边界,用创造回应每一次好奇。Ask Mi Anything!

收藏
119.54W
我要评论
图片
欢迎您发表有价值的评论,发布广告和不和谐的评论都将会被删除,您的账号将禁止评论。
发表评论
要闻
股市
关联话题
6.01W 人关注