共计 1843 个字符,预计需要花费 5 分钟才能阅读完成。
答案似乎呼之欲出。
以马斯克的性格,如果他真的制造了一群能与大量人群实时互动的机器人,早就大肆宣扬这一点了,但现实情况恰恰相反,他们的回应相当含糊其辞。
Scoble 还发了一条后续推文,说他与一位特斯拉工程师进行了交谈以获得清晰的答案。
「当它走路时,是 AI 在控制 Optimus。Optimus 可以在人群中走来走去,这真的太棒了。」但 Scoble 没有进行进一步详细说明。
科技媒体 Gizmodo 也表示,以他们对 Optimus 的了解,马斯克实际上远远落后于竞争对手。
今年 1 月份,马斯克篡改了一个 Optimus 的演示视频,被网友抓包。
视频中,Optimus 正在叠衬衫,但眼尖的观众注意到,有一只手不断进入摄像机的视野。这意味着,有人在镜头外执行折叠任务,而机器人只是在模仿人类。
图注:特斯拉的擎天柱机器人在 2024 年 1 月折叠衣物,红色箭头标注显示的是人类的手。
如果 Optimus 真的能够完全自主地玩石头剪刀布,无需人类干预,并且可以毫不延迟地进行快速对话,那确实很牛,但目前并没有相关的证据能够表明这一点。
被遥控操作的机器人们
特斯拉在今年 8 月底,。特斯拉 Optimus 人形机器人让我们看到了动作捕捉这一数据采集思路的应用潜力。这是一种常见且往往经济高效的训练机器人执行类人动作的方法,特斯拉是首批大规模使用动作捕捉技术的公司之一。
Optimus 训练过程
其实操控机器人并不是一件新鲜事。
。备菜、翻炒、出锅,洗衣、逗猫、浇花它是样样精通。这其中就有不少远程操控的展示,Aloha 也凭借这种视觉效果拿下了不少人对机器人养老的期待。
来自英伟达的研究科学家 Jim Fan 当时发布了推文,提醒大家别因为视频的惊艳程度就忽略了其中技术真相。他提到,应该将 Mobile ALOHA 看作是一辆制造精良的跑车,而它仍需要人类驾驶才能表现出自己的能力。现在的水平与能够完全自主的厨师还有较大的差距。
在机器人技术领域,从人类示范中进行的模仿学习已经取得了令人瞩目的成绩。其实训练 Mobile ALOHA 的过程就是像是在玩游戏 —— 操作机器人直到动作通关。Mobile ALOHA 之所以能够让人发出惊叹,是因为它所展示的任务不局限于桌面操作。这些复杂且灵活的动作源于研究者开发的一套系统,用于模仿需要全身控制的双臂移动操作任务。利用 Mobile ALOHA 收集的数据,进行有监督的行为克隆。
研究团队在介绍时表示,对于一些简单的任务,Mobile ALOHA 可以在 50 次学习之后达到 90% 的行动成功率。对于一些简单的任务,如炒一只虾仁(有且只有一只)、拿块抹布、摆放好椅子,Mobile ALOHA 无需人类指点,还是可以自己 hold 住的。
今年 7 月,MIT 的研究人员竟通过头戴 Apple Vision 实现了远程操控 UCSD 实验室中的机器人。这种基于 VR 头显的 Open-Television 遥操作系统,可支持不同 VR 硬件平台来映射接入任意一种机器人,通过隔空操作来采集数据。操控者能以立体式主动感知机器人周围的环境。该系统还能将操控者的头部和手部动作映射到机器人上。
体验过 Mobile ALOHA 的梁力天表示:Mobile ALOHA 的直接关节映射使用起来非常直观,这使它成为比 VR 控制器更好的解决方案。这样的能力,只要 3.2 万美元的预算真的太值了。
Mobile ALOHA 依赖于低成本的全身远程操作系统来收集数据,然后通过监督行为克隆的方式进行训练。它更侧重于移动和双臂协调控制,结合全身远程操作界面,使机器人能完成更复杂的操作任务。而 Open-TeleVision 强调基于视觉反馈的远程操作,使用强大的视觉模型来实时分析环境信息,并将手部关键点动作映射到机器人的关节角度。这种方式依赖高质量的视觉输入来精确地进行操作,适合用于复杂的、细粒度的任务。
这表明 Open-TeleVision 适合那些需要高精度和视觉反馈的任务,其训练方式更复杂,适合处理细节精度要求较高的场景。而 Mobile ALOHA 则更加适合日常家务等移动和协调操作任务,它通过较少的训练数据就能取得很高的成功率,是一种更为实用的解决方案。
在这次特斯拉的活动中,马斯克谈到了 Optimus 机器人,但并没有提及这些机器人是否完全自主。
他表示这些机器人可以帮你剪草坪、买杂货,甚至照看孩子。不过,完成这些任务还是要依靠 AI 的自主执行能力。毕竟没人愿意买个需要远程操作机器人回家吧。
参考链接: