OpenVLA是一个 7B 参数开源视觉语言动作模型 (VLA),在 Open X-Embodiment 数据集中的 970k 机器人场景上进行了预训练。 OpenVLA 为通用机器人操作策略设定了新的技术水平。它支持开箱即用地控制多个机器人,并且可以通过参数高效的微调快速适应新的机器人设置。 OpenVLA 检查点和 PyTorch 训练管道完全开源,模型可以从 HuggingFace 下载和微调。
介绍地址:https://openvla.github.io/
OpenVLA是一个 7B 参数开源视觉语言动作模型 (VLA),在 Open X-Embodiment 数据集中的 970k 机器人场景上进行了预训练。 OpenVLA 为通用机器人操作策略设定了新的技术水平。它支持开箱即用地控制多个机器人,并且可以通过参数高效的微调快速适应新的机器人设置。 OpenVLA 检查点和 PyTorch 训练管道完全开源,模型可以从 HuggingFace 下载和微调。
介绍地址:https://openvla.github.io/