UniVLA是一种全新的框架,专门用于学习跨实体的视觉-语言-动作(VLA)策略。该框架能够充分利用来自多个实体和视角的海量数据,且在性能上超过了OpenVLA。锁定Xbot实验室官方视频号的直播,我们将一起探索并动手实践具身智能领域的前沿算法框架。

在直播中,我们不仅会深入讲解UniVLA框架,还将介绍如何在智元Genisim仿真软件中调用该框架。我们将演示如何将UniVLA与Genisim结合,探索其在仿真环境中的应用,帮助大家更好地理解如何利用这些工具进行高效的视觉-语言-动作策略学习与优化。