
Hugging Face 公布 4.5 亿参数开源机器人模型 SmolVLA

▲图源HuggingFace(下同)
而在训练策略方面,SmolVLA首先通过通用操作数据进行预训练,再针对特定任务进行微调,以提升适应能力。因此虽然SmolVLA的训练数据远少于现有其他VLA模型(仅包括不到3万个任务记录),但HuggingFace表示,该模型在模拟环境和真实场景中的表现与大型模型相当,甚至在部分任务上实现“超越”。此外,HuggingFace透露SmolVLA还引入“异步推理架构”(AsynchronousInferenceStack),将感知处理(如视觉和语音理解)与动作执行进行解耦,使机器人在面对快速变化的环境时能做出更及时的响应,大幅提升其实用性。HuggingFace强调,用户使用MacBookPro笔记本电脑等消费级硬件即可运行SmolVLA-450M模型,无需花费大成本采购专用AI训练服务器。同时用户也可以考虑采购HuggingFace推出的低成本机器人平台(SO-100、SO-101和LeKiwi)等降低成本。HuggingFace援引自家进行的多项基准测试验证SmolVLA的性能,在LIBERO与Meta-World等模拟测试平台上,SmolVLA的表现据称优于Octo、OpenVLA等业界竞品,而在使用真实机器人SO-100和SO-101进行抓取、放置、堆叠与分类任务中,SmolVLA也展现出更好的性能。
目前,SmolVLA的基础模型已在HuggingFace平台上线,完整训练方法也同步在GitHub上公开,附项目页面如下(https://huggingface.co/lerobot/smolvla_base)。