本文作者:访客

Hugging Face 公布 4.5 亿参数开源机器人模型 SmolVLA

访客 2025-06-09 17:26:04 68312
Hugging Face 公布 4.5 亿参数开源机器人模型 SmolVLA摘要: 6月9日消息,HuggingFace现已公布4.5亿参数开源机器人模型SmolVLA,该模型主打高普适性,可在MacBo...
6月9日消息,HuggingFace现已公布4.5亿参数开源机器人模型SmolVLA,该模型主打高普适性,可在MacBookPro等的消费级硬件设备上运行,旨在帮助开发者降低入门成本。当下,业界机器人模型通常采用“视觉-语言-行动”(Vision-Language-Action,VLA)设计,此类模型尝试在单一架构中整合感知能力、语言理解与行动决策,从而让机器人实现自主执行复杂任务。不过相应模型训练成本极高,目前大多数模型仍为闭源项目,训练过程中依赖昂贵硬件、大量工程资源和大规模私有数据集。为此,HuggingFace推出SmolVLA这一轻量级开源模型,使用公开数据集进行训练,并可在消费级硬件设备上运行,旨在降低爱好者入门成本,推动通用机器人智能体的研究进展。据介绍,SmolVLA在模型架构上结合Transformer结构与flow-matching解码器,并采用了四项关键优化技术:一是跳过视觉模型中一半层数,以提升推理速度并减小模型体积;二是交替融合自注意力与交叉注意力模块,提高多模态信息整合效率;三是减少视觉Token数量以提升处理效率;四是采用更轻量的SmolVLM2作为视觉编码器,从而进一步降低硬件要求。

▲图源HuggingFace(下同)

Hugging Face 公布 4.5 亿参数开源机器人模型 SmolVLA

而在训练策略方面,SmolVLA首先通过通用操作数据进行预训练,再针对特定任务进行微调,以提升适应能力。因此虽然SmolVLA的训练数据远少于现有其他VLA模型(仅包括不到3万个任务记录),但HuggingFace表示,该模型在模拟环境和真实场景中的表现与大型模型相当,甚至在部分任务上实现“超越”。此外,HuggingFace透露SmolVLA还引入“异步推理架构”(AsynchronousInferenceStack),将感知处理(如视觉和语音理解)与动作执行进行解耦,使机器人在面对快速变化的环境时能做出更及时的响应,大幅提升其实用性。
HuggingFace强调,用户使用MacBookPro笔记本电脑等消费级硬件即可运行SmolVLA-450M模型,无需花费大成本采购专用AI训练服务器。同时用户也可以考虑采购HuggingFace推出的低成本机器人平台(SO-100、SO-101和LeKiwi)等降低成本。HuggingFace援引自家进行的多项基准测试验证SmolVLA的性能,在LIBERO与Meta-World等模拟测试平台上,SmolVLA的表现据称优于Octo、OpenVLA等业界竞品,而在使用真实机器人SO-100和SO-101进行抓取、放置、堆叠与分类任务中,SmolVLA也展现出更好的性能。
目前,SmolVLA的基础模型已在HuggingFace平台上线,完整训练方法也同步在GitHub上公开,附项目页面如下(https://huggingface.co/lerobot/smolvla_base)。
阅读
分享