2025年4月,小米正式開源旗下首個自研大語言模型系列 —— MiMo(MiMo-7B),在 Hugging Face 平臺同步上線。MiMo 由小米 LLM-Core 團隊訓練,參數規模為 7B,定位于高效中型模型,專為數學推理與代碼生成場景設計。
據官方介紹,MiMo 在 MATH500、AIME、LiveCodeBench 等多個專業評測中表現亮眼,甚至在部分任務中超越了 OpenAI o1-mini 和 Qwen-32B 等大模型。技術上,MiMo結合高密度推理語料預訓練、強化學習(RL)微調、獎勵機制重構與推理效率優化,打造出兼顧性能與部署友好的國產開源模型方案。

此次發布不僅標志著小米正式進入大模型核心技術陣營,也顯示其在AI基礎能力建設上的長期戰略布局。
?? 模型地址:https://huggingface.co/XiaomiMiMo
?? 技術報告:https://github.com/XiaomiMiMo/MiMo/blob/main/MiMo-7B-Technical-Report.pdf
