2026人型机器人半马结束:机器人是如何感知世界并做出相应的机械运动?

栏目:技术动态    作者:大凡光学   发布时间:2026-05-06    访问量:6

2026年人型机器人半程马拉松赛事圆满落幕,参赛人型机器人以稳定的步态完成21.0975公里的全程奔跑,顺利应对坡道、弯道、非铺装路面等复杂路况,全程无摔倒、无明显位姿偏差,标志着人型机器人的运动控制与环境感知技术实现了里程碑式突破。从冰冷的机械结构,到能像人类一样感知路况、调整步态、完成长距离持续奔跑,人型机器人实现这一切的核心底层支撑,正是机器人视觉标定技术——它是机器人“看懂世界”的眼睛,更是连接视觉感知与机械运动的核心桥梁,决定了机器人对环境的感知精度与动作执行的可靠性。

一、人型机器人跑赢半马的核心技术挑战

不同于工业场景中固定工位的机械臂,也不同于仓储场景中沿固定路径行驶的AGV机器人,人型机器人完成半程马拉松,对视觉感知与运动控制提出了四大极致考验,而这些考验的解决,全部建立在高精度视觉标定的基础之上。

图片1.jpg

1.长距离奔跑的累计误差抑制

21公里的持续奔跑中,机器人的足部与地面的冲击、机身震动、电机温度漂移,都会导致关节参数、视觉传感器位姿发生微小变化,这些误差会持续累计,最终导致机器人步态失衡、方向偏离,传统的静态离线标定完全无法应对这种长时程的精度衰减。

2.复杂动态环境的实时感知

半马赛道包含平整公路、缓坡、弯道、路沿等多种路况,还需应对赛道旁的移动人群、临时障碍物,机器人需要实时识别路面特征、测算距离、预判路况变化,这要求视觉系统能精准建立像素坐标与真实世界物理坐标的映射关系,哪怕1°的视角偏差,都会导致几米外的路况测算出现严重误差。

3.全身多传感器的时空协同

人型机器人并非仅靠相机“看路”,而是搭载了双目视觉相机、激光雷达、IMU惯性测量单元、关节编码器、足部力控传感器等数十种传感器。机器人需要将不同传感器的感知数据在时间与空间上完全同步,才能精准判断自身位姿、路面高度、障碍物距离,任何时空标定的偏差,都会导致步态调整的时机与幅度完全错误。

二维码标定板.jpg

4.视觉感知与全身运动的精准联动

人类奔跑时,眼睛看到路况后,大脑会瞬间指挥腿部肌肉调整步幅、步频、落地角度,人型机器人同样需要将视觉感知到的路况信息,转化为全身数十个关节的精准动作控制。这一过程的核心,就是通过足眼协同标定、全身运动学标定,建立视觉坐标系与机器人全身关节坐标系的统一映射,实现“看到即能做到”的精准控制。

二、从感知世界到机械运动:视觉标定的全链路核心作用

人型机器人从感知赛道环境,到做出精准的奔跑动作,完整链路分为“看清环境-理解位姿-联动运动-动态补偿”四大环节,而视觉标定技术贯穿全流程,是每个环节正常运转的核心基础。

1.视觉内参标定,让机器人拥有“清晰的眼睛”

机器人的视觉相机如同人类的眼球,镜头本身存在光学畸变,哪怕是高端工业相机,也会因镜头装配、光学特性出现桶形畸变、枕形畸变,导致画面中的直线弯曲、物体比例失真,直接让机器人对路面宽度、障碍物距离的测算出现根本性错误。

R-C.jpg

通过相机内参与畸变标定,依托高精度标定板,机器人可精准求解相机的焦距、主点坐标、畸变系数,完成镜头畸变的实时校正,让拍摄的画面还原真实的物理世界,实现“看直为直、看方为方”。这是机器人感知世界的基础,也是所有后续动作的前提——只有先看清真实的赛道,才能做出正确的动作决策。

2.多传感器时空标定,让机器人“理解自身与世界的关系”

看清环境后,机器人需要解决“我在哪里、我处于什么姿态、前方路面离我有多远”的核心问题,这就需要完成多传感器空间标定与时间同步标定。

在空间维度,通过手眼标定、激光-视觉联合标定、IMU-相机标定技术,将视觉相机、激光雷达、IMU、关节编码器的坐标系,全部统一到机器人的机身基坐标系中,让机器人知道“相机看到的前方1米障碍物,对应机身的相对位置在哪里”;

图片8.jpg

在时间维度,通过硬件触发与软件算法优化,实现所有传感器数据的微秒级时间同步,解决“相机拍摄画面的瞬间,机器人的关节角度、IMU加速度数据精准对应”的问题,避免出现“看到障碍物时,机器人的腿部已经迈出”的时序错位。

完成这一步后,机器人才能将视觉感知的环境信息,转化为自身运动控制可识别的物理参数,真正实现对世界与自身位姿的理解。

3.全身运动学标定,让视觉感知转化为精准机械运动

这是连接“看”与“动”的核心环节。人型机器人的双腿、躯干、手臂由数十个连杆与关节组成,受加工误差、装配间隙、运行磨损的影响,机器人的理论运动学模型与实际机械结构存在偏差,哪怕是0.1°的关节角度误差,也会导致足部落地位置出现厘米级偏差,直接让机器人在奔跑中摔倒。

通过全身运动学标定与足眼协同标定,机器人以视觉系统为全局基准,结合关节编码器、力控传感器的数据,精准识别机械结构的实际参数偏差,修正Denavit-Hartenberg(DH)运动学模型,建立视觉坐标系与全身关节坐标系的精准映射关系。当视觉系统识别到前方路面有5°的上坡时,机器人可通过标定后的运动学模型,精准计算出髋关节、膝关节、踝关节需要调整的角度与力矩,自动调整步幅与落地姿态,实现视觉感知到机械动作的无缝转化。

图片6.jpg

4.动态在线标定,实现长距离奔跑的精度持续稳定

静态标定只能解决机器人开机前的初始精度问题,而21公里的奔跑中,机身持续震动、电机温升、路面冲击、零部件磨损,都会导致初始标定参数持续漂移。这就需要动态在线标定技术发挥核心作用。

图片2.jpg

不同于工业场景的离线静态标定,人型机器人搭载的在线标定系统,可在奔跑过程中,通过赛道的路面特征、预设的视觉标志物,结合IMU与里程计数据,实时迭代优化相机内参、多传感器外参与运动学模型参数,自动补偿温度漂移、震动带来的精度衰减。哪怕奔跑过程中相机位姿出现微小变化,机器人也能在毫秒级时间内完成参数修正,保证长距离奔跑中,视觉感知与运动控制的精度始终稳定。

三、半马赛事背后:人型机器人视觉标定技术的核心突破

本次人型机器人半马赛事的圆满完赛,本质上是机器人视觉标定技术从“实验室静态场景”走向“户外动态长时程场景”的重大突破,核心实现了三大技术升级。

图片6.5.jpg

1.实现了从离线静态标定到全时在线自标定的跨越

传统工业机器人标定需要停机、固定环境、专业人员操作,而本次参赛的人型机器人,实现了奔跑过程中的无人干预自标定,无需停机、无需专用标定靶标,依托自然场景特征即可完成参数优化,解决了长时程运行的精度衰减难题。

2.完成了从单传感器标定到全身多传感全域标定的升级

不同于单机械臂的手眼标定,人型机器人需要完成双目视觉、激光雷达、IMU、全身数十个关节的全域标定,实现了视觉、力控、惯导多模态数据的时空精准同步,让机器人的感知与运动形成了完整的闭环。

3.突破了结构化场景标定到非结构化户外场景标定的壁垒

实验室与工厂的结构化场景,光线、环境可控,标定难度低;而半马赛道的户外环境,光照变化、路面纹理复杂、动态障碍物多,参赛机器人的标定系统,实现了复杂光照、非结构化路面下的稳定特征提取与参数优化,为人型机器人走进真实生活场景奠定了基础。

总结

人型机器人完成半程马拉松,从来不是简单的“机械结构跑得快”,而是以视觉标定技术为核心的环境感知、运动控制、多传感器融合技术的全面成熟。视觉标定技术,让机器人拥有了看懂世界的能力,更搭建起了从视觉感知到机械运动的精准桥梁,解决了机器人“在哪里、去哪里、怎么动”的核心问题。

本次赛事的技术突破,也标志着人型机器人的标定技术,已经从工业场景的专用化方案,走向了通用场景的普适化方案。

图片7.jpg

未来,随着AI驱动的智能自标定、数字孪生预标定技术的持续迭代,人型机器人将不仅能完成马拉松奔跑,更能走进家庭、工厂、户外特种场景,真正实现全场景的落地应用。

上一篇:棋盘格vs二维码vs圆点标定板:三大主流标定板全方位对比选型指南

下一篇:没有了!

TOP