近日,小米“天才少女”罗福莉又有新动作——发表了一篇全新论文,直接点出了当下AI领域热门方向AIAgent的关键难题,还给出了切实可行的解决方案,再次引发行业关注。

说起罗福莉,很多人都有印象,这位95后科研者曾被雷军以千万年薪挖到小米,入职后一直深耕AI大模型和系统优化领域。此前,她就以通讯作者身份,参与小米和北大联合的研究,解决了MoE强化学习训练不稳的难题,这次的新论文,更是把目光对准了AIAgent落地的核心瓶颈。

可能有人会问,AIAgent到底是什么?简单说,它正在从我们熟悉的聊天工具,升级成能自主干活、有长期记忆、还能远程操作的“数字员工”。比如Anthropic最近更新的Claude Code,新增了循环执行、长期记忆等功能,被开发者夸“堪比官方版龙虾”,也能看出AIAgent在实际应用中潜力巨大。

但潜力再大,也有绕不开的坎——算力资源浪费严重。过去AI行业竞争,主要看模型参数、训练数据和GPU算力,资源需求比较单一。可AIAgent不一样,一个完整任务要在GPU、CPU和API之间频繁切换。

举个例子,写代码时需要GPU提供算力,编译、测试代码又要靠CPU,查资料还得调用API接口。这种复杂的需求,让传统的资源调度方式根本跟不上,也导致了大量算力浪费。

罗福莉在论文里给出的数据很直观:在一些AI编程任务中,CPU的实际利用率只有47%,差不多一半的算力都闲置着。这对需要大规模训练AIAgent的企业来说,无疑是一笔不小的成本损耗,也成了AIAgent普及的拦路虎。

为什么会出现这种情况?原来传统的调度方式,是任务一开始就分配固定的CPU或GPU资源,直到任务结束才释放,这种“一占到底”的模式,根本适配不了AIAgent多步骤、多资源切换的特点。

针对这个痛点,罗福莉和她的团队在论文中提出了一个叫Tangram的新型系统。简单来说,就是把传统的“任务级调度”改成“动作级调度”,不再给整个任务固定分配资源,而是根据每个具体操作的需求,动态分配对应资源。

比如写代码时调用GPU,编译测试时切换到CPU,查资料时启用API,这样就能实现资源共享复用,从根本上解决算力浪费的问题。

实验数据也证明了这个方案的实用性:Tangram系统能让AIAgent的平均任务时间缩短4.3倍,训练效率提升1.5倍,外部资源成本降低71%。对大规模开展AIAgent训练的团队来说,这无疑是雪中送炭,也为AIAgent规模化落地扫清了一大障碍。

其实,罗福莉的这项研究,也贴合了当前AI行业的发展趋势。现在,OpenClaw解决了AIAgent的运行框架问题,Claude Code、Devin攻克了实际应用难题,行业竞争已经从单纯比模型能力,转向了比更全面的Agent系统能力。

而罗福莉团队聚焦的底层算力调度,正是Agent系统能力的核心,刚好填补了行业在这一领域的空白。

从农村普通家庭走出,靠自己的努力考上北大硕士,再被雷军重金邀请加入小米,接连发表重磅论文直击行业痛点,罗福莉的成长之路本身就很励志。更难得的是,她的研究从不“纸上谈兵”,始终聚焦AI技术的实际落地难题。

对小米来说,罗福莉的研究成果,不仅夯实了小米在AI大模型领域的技术基础,也为其“人车家全生态”战略的AI赋能提供了有力支撑。对整个AI行业而言,这篇新论文不仅给出了AIAgent算力调度的具体办法,还引导行业关注底层系统优化,推动AIAgent从“好用”变得“高效又省钱”,为通用人工智能发展注入了新动力。

目前,AIAgent正处于攻坚阶段,各种技术难题不断出现。而像罗福莉这样的年轻科研者,正凭借敏锐的洞察力和扎实的技术,在底层技术领域不断突破。相信随着Tangram系统的进一步优化和落地,AIAgent的算力浪费问题会得到有效缓解,应用场景也会越来越广。未来,罗福莉也有望在小米的平台上,带来更多直击行业痛点的研究成果,推动AI技术朝着更高效、更实用的方向发展。

(文/人间观察员)