未来一年大模型关键词揭秘:小米MiMo大模型负责人罗福莉力挺“进化”
2026-03-27 19:05:03未知 作者:徽声在线
3月27日,2026中关村论坛年会迎来了一场备受瞩目的“人工智能主题日·主题论坛”,该活动在北京盛大举行。小米MiMo大模型项目负责人罗福莉亮相于以“OpenClaw与AI开源”为主题的圆桌论坛环节,与众多行业精英共同探讨AI领域的最新动态。
罗福莉在论坛上深入剖析了OpenClaw(昵称“龙虾”)的核心价值。她指出,OpenClaw的开源特性是其一大亮点。从基座模型的角度来看,这类框架不仅为基座大模型设定了性能下限,还通过不断优化提升了其上限。此外,OpenClaw还激发了业界对Agent(智能体)层的无限遐想,预示着AI技术的新一轮变革。
据徽声在线记者了解,当被问及如何用一个词来概括未来一年大模型的发展趋势及个人期待时,罗福莉毫不犹豫地选择了“进化”。
OpenClaw:引领AI开源新风尚
论坛现场,罗福莉以一身休闲的黑白格子衫搭配牛仔裤亮相,成为台上最为轻松自在的嘉宾。作为小米MiMo大模型的领军人物,她近年来带领团队发布了多款自研模型,同时因“AI天才少女”、前DeepSeek研究员等身份标签而备受业界瞩目。
(图片来源:主办方提供)
在谈到近期热议的OpenClaw时,罗福莉表示,她将其视为Agent框架领域的一次革命性突破。尽管身边许多深度编码爱好者仍倾向于使用Claude Code,但她坚信,一旦真正体验过OpenClaw,人们便会发现其在设计上的诸多领先之处。她甚至认为,Claude Code的某些更新也在某种程度上借鉴了OpenClaw的理念。
罗福莉以自己的使用体验为例,进一步阐述了OpenClaw的核心价值。她强调,开源是OpenClaw的一大法宝,它显著提升了国内开源模型的上限,为基座模型的发展提供了有力支撑。同时,OpenClaw还点燃了业界对Agent层的探索热情,为AI技术的未来发展开辟了新的道路。
优化推理成本,提升处理速度
在被问及小米在大模型领域的独特优势时,罗福莉巧妙地避开了直接回答,转而探讨了中国大模型团队在基座模型研发上的整体优势。她认为,这一话题更具普遍价值和借鉴意义。
据罗福莉介绍,大约两年前,她就注意到中国基座模型团队在有限算力条件下取得了重要突破。面对NVLink互联带宽等硬件限制,这些团队通过模型结构创新,如DeepSeek V2、V3系列中的细粒度MoE和MLA等技术,实现了效率与性能的双重提升。
罗福莉表示,DeepSeek的成功探索为国内基座模型团队注入了强大信心。包括DeepSeek、Kimi以及小米在内的多家团队,都在积极探索进入Agent时代后模型结构的进一步演化路径。
她进一步指出,OpenClaw等框架的出色表现离不开长上下文(Long context)的支持。然而,长上下文的应用一直受到推理成本高、速度慢的制约。
罗福莉直言不讳地表示,降低推理成本、提升处理速度是当前亟待解决的问题。只有在百万级甚至千万级上下文环境下实现低成本、高效率的推理,用户才愿意将高生产力价值的任务交给模型处理,模型也才能在复杂任务中展现其真正实力。
她透露,小米团队正在研究如何构造更有效的学习算法、采集具有长期依赖关系的文本数据以及生成高质量的轨迹数据,以推动模型在长上下文环境下的自我迭代能力。
罗福莉认为,随着大模型技术的飞速进步和Agent框架的加持,推理需求将持续增长,这将引发模型之外算力、推理芯片乃至能源层面的激烈竞争。
“自进化”:AI发展的新方向
在谈到未来一年大模型的发展趋势时,罗福莉再次强调了“进化”的重要性。她表示,虽然“进化”一词听起来有些抽象,但她最近对其有了更具体、更务实的理解。她认为,“自进化”已经具备比较可行的实现路径。
罗福莉解释道,随着模型能力的增强,预训练模型的上限正在被Agent框架逐步激活。她表示:“我们现在已经摸到了这个边界。”如果“自进化”机制能够持续运转,其潜力将不可估量。
她提到,目前国内已有许多模型能够在确定性较强的任务上自主优化并持续执行两三天。这表明,“自进化”并非遥不可及的梦想,而是正在逐步成为现实。
在罗福莉看来,“自进化”不仅意味着替代人类已有的生产力,更意味着像顶尖科学家一样探索未知领域。她原本预计这一过程需要三到五年时间,但最近她认为这个时间窗口应该缩短到一到两年。她期待在强大的自进化Agent框架加持下,大模型能够为科学研究带来至少指数级的加速效果,并辐射到更广泛的学科和领域。
论坛结束后,罗福莉被众多参会者围住交流。在主办方的引导下,她迅速走向会场外,并以“后续有事”为由婉拒了更多采访请求。然而,仍有追逐者一路跟随。一位志愿者上前向她表达感谢,并提到此前受到罗福莉文章的启发。罗福莉微笑着握拳回应:“加油!”
(徽声在线记者李少婷对本文亦有贡献)
