OpenArm:人人可用的仿人双臂开源平台
从开源硬件到力反馈遥操作,再到量产交付的全链路实践 名言|“安全,是机器人最重要的功能;其次是一切都能被复现。”——OpenArm 团队 导读 在“物理智能(Physical AI)”的浪潮下,如何以可负担的成本、可复现的工程链路把机器人真正放进现实世界?OpenArm 给出了一条务实路径:这是一套面向研究与应用的开源 7 自由度仿人机...
2025-11-04 17:32:07
万字长文 - 全网最全Pi0代码详解
源码来自@董子斌 https://github.com/ZibinDong/openpi_pytorch 从demo理解输入和输出 # 输入observation = { "image": { "base_0_rgb": torch.randint( 0, 256, (1, 3, 224, 224), dtype=torch.uint8, device=device ), # "left_wrist_0_rgb": ..., Suppose we don't have this view...
2025-10-31 17:32:29
VLA(Vision-Language-Action)开源生态汇总
导语这是一份面向“实做派”的 VLA(Vision-Language-Action)开源资源导航:按通用自回归/Transformer、扩散式动作模型、训练/推理提效框架、强基线与新趋势四大维度梳理,优先收录可复现代码、可直接下载的权重、清晰的任务范式与部署入口。名言“世界本身就是最好的模型。”——Rodney Brooks通用 VLA(Transformer/自回归类)...
2025-10-29 17:31:26
千元搞定具身智能全栈开发!含主从机械臂 + 全套理论 + 前沿实操算法课
在过去的具身智能实训普及过程中,我们发现了一些值得深思的问题:高门槛:对于许多个人开发者来说元的费用偏高,限制了他们的参与意愿。资源浪费:课程结束后,部分学员的硬件因缺乏持续应用场景而被闲置,使用率不高。内容难以吸收:很多课程在表达复杂原理和操作技巧方面存在明显局限,缺乏理论+实操的系统培训。Xbotic...
2025-10-29 17:31:26
灵巧智能IROS首发开源DexCanvas数据集,破解灵巧操作物理对齐难题,构建灵巧操作数据基座
福利来袭:关注“Xbotice具身智能实验室”+ 评论“获取基础资料”或转发文章后截图私信小助手JM629766,即可获得具身智能基础学习资料(后附资料目录),感兴趣的学员可以积极参与。引言从“移动”到“创造”,机器人操作的终极挑战行走让机器人抵达位置,而精准操作才是其创造价值的核心。在具身智能从虚拟认知迈向物理交互的关键...
2025-10-28 17:33:29
仿真器、基准与数据集:具身智能的经验基石
“What I cannot create, I do not understand.” — Richard Feynman若不能创造它,就无法真正理解它。导读在具身智能(Embodied Intelligence)迅速发展的今天,仿真器、基准与数据集 已成为推动机器人操作研究的“燃料与道路”。它们不仅提供了标准化的训练与评测平台,也是确保可复现性与公平比较的关键基础。无论是语言驱动...
2025-10-27 17:33:25
Xbotics 社区 · 非技术类线上实习招募(偏运营、投资、商务)
一、项目概览形式:纯线上,远程协作,本次名额上线20人周期:3 个月(可滚动入营,通过审核后一周内开营)目标:系统完成「前沿科技阅读与知识积累 → 内容生产与传播 → 活动策划与执行」三阶段训练,形成可展示的项目成果费用:不收费、不发薪(提供实习机会与履历背书)证明:按时保质完成任务者,颁发 Xbotics 社区实习...
2025-10-24 17:31:44
家用机器人落地指南:任务地图、频率判定与难度评估
导语家用机器人要真正走进家庭,不靠“炫技”,靠把一件件小事稳定做好。本文用“原子技能”拆任务,用统一口径评估频率与难度,再给出可落地的优先级矩阵:先做高频、低/中难、风险低、可回执的任务,让用户每天都能看见它把事办成。安全边界清晰、动作链可复用、数据可验证,是我们把机器人从演示厅带到客厅的三把钥匙。名言“...
2025-10-23 17:31:39
机器人操作硬件平台汇总(Hardware Platforms for Manipulation)
在介绍操作任务与算法之前,先把“身体”说清楚:一套操作系统通常由机械手(Hand)、机械臂(Arm)与移动平台(Mobile Base)三部分构成。不同组合定义了具身构型与可达能力、可操作性与安全性。下文按单臂→双臂→灵巧手→软体手→移动操作平台→四足→人形的结构,对常见研究平台逐一给出背景、特性、应用与注意事项,便于选型与...
2025-10-22 17:32:22
机器人灵巧手操作(Dexterous Manipulation)”的求职路线
JD 关键词(可直接放到招聘/简历)机械与执行结构/驱动:绳驱(Shadow Hand)、连杆(Robotiq 3F)、直驱(Allegro/Dex3-1)、柔性/气动/形状记忆手指关节的驱动方式:绳驱重量轻/布局灵活、传动顺滑但维护难;连杆结构刚性好、可靠易控;直驱响应快、可回驱性好但体积/成本高;柔性/气动/形状记忆具顺应性,适合包容式抓取...
2025-10-21 17:30:50
生成式人工智能会抢谁的工作:来自美国简历与招聘信息的分析
生成式AI带来的是一种“资历偏向型”技术变革:自2023年起,美国企业在广泛采用AI后,初级岗位的增量被快速抽走(主要体现为“少招新人”而非“多裁人”),而高级岗位继续上行;受冲击最重的是任务可替代、性价比尴尬的中档学历与中低复杂度岗位,行业中以批发/零售尤甚。1. AI到底有没有在冲击就业?现象面板大样本(285k 企业...
2025-10-20 15:00:00
就在今天!IROS期间线下活动来了!让我们一起和大咖们讨论Optimus、灵巧手和数据
撰文:Marilyn编辑:liuxjerry10.20,由具身纪元、Xbotics具身智能社区和工银瑞信投资部联合举办的灵巧手与数据线下活动要开始举办啦!感谢大家踊跃报名本次活动。但由于名额有限,我们开放两种参会方式:线下参会:针对已经被通知的参会伙伴线上参会:针对没有报名成功以及想听嘉宾分享的伙伴们,会根据嘉宾意愿开放大部分...
2025-10-20 15:00:00
Imeta-Y1|高性价比的“具身科研起步套装”(包含全套具身智能课程哦)
一次入门,直达“采集—训练—部署”闭环买贵的预算顶不住,买便宜的又不好用?Imeta-Y1 给你高性价比的第三条路:能跑论文、能做项目、能带队教学。aloha act 训练效果视频备注:提供开源SDK和模型推理-训练-部署源码为什么 Imeta-Y1 真的“性价比高”?1.起步总投入更低,但能做的事更多硬件到手价:¥19,999(单臂+夹爪示教器+...
2025-10-17 17:30:22
JanusVLN:双重隐式记忆解耦语义与空间,开创视觉语言导航记忆新范式
引言视觉-语言导航(Vision-and-Language Navigation, VLN)作为具身智能的关键研究领域,旨在赋予智能体根据自然语言指令在未知三维环境中导航的能力。近期,多模态大语言模型(MLLM)凭借其卓越的语义理解与推理能力,极大地推动了VLN领域的发展。然而,当前主流方法普遍依赖于构建显式记忆(如文本拓扑地图或存储历史图...
2025-10-16 17:31:23
Xbotics社区 · 具身智能Talk
10.15(周三)晚 19:30,锁定B站直播间https://live.bilibili.com/1768500995我们邀请到浙大与西湖大学联合培养博士生,OpenHelix Team leader丁鹏翔,为大家带来VLA-Adapter的主题Talk[庆祝][庆祝]各位19:30,不见不散~
2025-10-15 17:27:00
Xbotics Talk 招募令 | 一起讲述具身智能的现在与未来
Xbotics 社区正式启动 「Talk 分享计划」!我们诚挚邀请——各高校学生论文作者与开源项目贡献者企业或团队的技术负责人共同走上 Xbotics Talk 的舞台,向数万名行业内部人士分享你的思考与实践。我们的初心与特色培养具身智能人才的平台Xbotics 不是一个单纯的分享社区,而是一个致力于培养具身智能人才的学习平台。我们希望...
2025-10-15 17:27:00
灵巧手的“ChatGPT时刻”:一个数据集正在试图教会机器人感觉
机器人“最后一公里”的灵巧操作瓶颈世界很大,精度很小;“最后一公里”走不通,等于没到达。近年来,人工智能在语言理解、视觉识别和规划决策等方面取得巨大进步,但让机器人在物理世界中像人类一样灵活运用双手仍然困难重重。拾取鸡蛋、端起水杯、插拔线缆……这些人类看来轻而易举的日常操作,对机器人而言却是横亘在面前的“...
2025-10-14 12:00:00
Xbotics 10月线下微沙龙——从真机到视频:具身智能的数据跃迁
01活动亮点真实案例开卷:围绕“从完全真机数据到规模化视频数据”的实际项目拆解强互动讨论:5–10 人小圈子,充分对话,问题直达细节共创产出:当场沉淀《数据路线图一页纸》与行动项清单02适合谁来正在做/即将做:人形、四足、机械臂的数据采集、视频监督、VLA×RL 训练与评测需要把“少量真机→大量视频”落到工程 SOP、成本与...
2025-10-13 17:31:47
Figure 03 宣传视频深度解析-真实性判断与技术点详解
01视频真实性判断对于视频画面的真实性,经分析可以判断这次宣传片主要采用实拍的机器人画面,而非全电脑CGI合成。首先,Figure官方和创始人明确表示,这段演示中的所有动作均由机器人自主完成,没有人工遥控。其次,片中出现了一些真实互动细节,如机器人向水槽冲洗盘子时只是在干净盘子上淋了一点水、折叠完衣服后衣物仍...
2025-10-11 17:20:00
具身智能研究入门与发展:Ask Me Anything 汇总
近期在具身智能领域的 Ask Me Anything 活动中,多位专家就入门、学术生涯、就业方向、技术路线和科研心态等问题分享了经验。本文按照主题整理了常见问题,并综合多位专家的核心观点进行回答,旨在帮助本科生和入门阶段的研究生更好地了解具身智能研究之路。1三分钟版本入门打基础:机器人学(坐标表示、运动学、三维建模)...
2025-10-10 17:42:10
RGB-D视觉能否让机器人自动精准对接?
一、为什么自动对接这么重要?在移动机器人(Mobile Robot)的长期应用中,“自动对接(Automatic Docking)”是一个看似小但至关重要的环节。无论是:仓储物流中的AGV(自动导引车),需要在完成搬运任务后返回充电站;农业场景中的田间机器人,需要定时回桩进行能量补给和数据上传;家庭服务机器人(如扫地机、送餐机器人...
2025-10-09 17:32:02
IROS期间线下活动来了!和大咖一起讨论Optimus、灵巧手和数据
每年秋季举行的 IROS(IEEE/RSJ International Conference on Intelligent Robots and Systems) 被视为机器人学的重要风向标:学术新方法、产业新样机与资本新叙事在这里交汇。IROS是全球机器人学领域体量最大、影响力最强的学术/产业年度会议之一,由IEEE RAS与日本机器人学会 RSJ 共同主办,创办于 1988 年,持续聚焦智...
2025-10-09 17:32:02
ICCV-2025 | 复杂场景的精准可控生成新突破!基于场景图的可控 3D 户外场景生成
论文链接:https://arxiv.org/abs/2503.07152项目主页:https://yuheng.ink/project-page/control-3d-scene/代码链接:https://github.com/yuhengliu02/control-3d-scene (coming soon)主要贡献首次实现了基于场景图输入的大规模三维室外场景生成;提出了结合空间分配模块的图神经网络,将稀疏的场景图映射为紧凑的场景嵌入...
2025-10-08 12:00:00
通往具身Chatgpt时刻的法宝:特斯拉Optimus押注的人类视频数据方法全解析——问题、现状与前景
撰文:Marilyn编辑:liuxjerry数据问题或许是具身智能发展中最先遇到的瓶颈。接下来我们会围绕着数据的话题,产出一系列文章。在仿真和真实数据之争中,视频数据好像总是那个不敢说话的小弟。但其实,我们可以明显感受到这1-2年,视频数据相关的研究开始多了起来,好像,这个领域也在悄悄地发生变化。人类视频数据或许还有...
2025-10-07 12:00:00
[读书分享]四足机器人常用步态概述
[导读]Hello!大家晚上好。公众号又鸽了一段时间没有更新!最近,沉迷“AI编程”无法自拔,也算是走了小段“终南捷径”!不过,AI虽好还是不能过分依赖,适当补充一些理论知识还是相当有必要的。正好,借着调试机器狗步态的时机,今天咱们一块了解下机器狗的基础步态?[考虑结合实际调试碰到的问题,暂且就不顺着原章节顺序读书...
2025-10-06 00:00:00
IROS-2025 | OIKG:基于观察-图交互与关键细节引导的视觉语言导航
近日,博维资讯有限公司创新研发部和广东省智能科学与技术研究院脑机元宇宙数字融合联合实验室团队的研究成果“Observation-Graph Interaction and Key-Detail Guidance for Vision and Language Navigation”被机器人领域顶级国际会议IROS 2025(IEEE/RSJ International Conference on Intelligent Robots and Systems)录用...
2025-10-05 12:00:00
清华世界模型与具身智能融合全面综述!具身智能:从LLMs到世界模型
作者:Tongtong Feng, Xin Wang, Yu-Gang Jiang, Wenwu Zhu单位:清华大学计算机科学与技术系,北京信息科学与技术国家研究中心,复旦大学可信具身智能研究所论文标题:Embodied AI: From LLMs to World Models论文链接:https://arxiv.org/pdf/2509.20021v1主要贡献系统性综述与分析:全面地探索了从基础到前沿的具身智能...
2025-10-04 12:00:00
谷歌强在哪里?理解物理世界的VLM大脑,会思考的VLA和惊艳的本体迁移能力 | Google Robotics 1.5有哪些亮点
撰文:Marilyn编辑:liuxjerry据传,谷歌将要发布的大杀器Gemini 3,要把全模态,包括图像、视频、语言、声音,以及最夸张的,机器人控制,都集成在一个大模型里。今天,谷歌公布了一个开胃小菜,Gemini Robotics 1.5,是这个方向上迈出的第一步。他是两个机器人模型,并组成了一个具身Agent的架构Gemini Robotics-ER 1.5:...
2025-10-03 12:00:00
【更名公告】Xbot知识库 改为 Xbotics具身智能实验室
做一个能与大家从0-100进步的具身智能社区命名说明:我们原拟定名称为“Xbotics具身智能社区”,因未通过审核,正式定名为“Xbotics具身智能实验室”。为什么改名?最近总是被误认跟其他群体有关联,为了与其他群体账号清晰区分、避免与他人误认,我们将公众号由 “Xbot知识库” 正式改名为 “Xbotics具身智能实验室”。我们的运营...
2025-10-01 17:00:00
Xbotics社区具身招贤榜 | 9月新增岗位30+
For applicants:Don't panic! You are much better than you think!If you don't feel well, feel free to reach us ヾ(^▽^*))For employers:Drop me a PR or issue, or contact me for posting your positions FOR FREE!如果您是招聘者:这是一个完全公益和免费的项目,欢迎联系我们:李卓恒(招贤榜发起人,微信StarRingSp...
2025-09-30 17:31:15