岗位职责:
1. 开展具身感知基础性研究,将三维感知提升到任务驱动型、不确定性感知的建模新范式。
2.开发和维护“度量-语义、以物体为中心”的世界模型,实现开放集识别和一致性地图构建,提供实时、可用于规划的三维状态估计。
3. 专注于机器人基础模型、视觉基础模型以及视觉-语言-动作模型的最新研发。
4.研究自监督表征学习,以提高模型在未知环境和多样任务中的泛化能力。
任职要求:
1.计算机视觉、三维感知或机器人学领域的博士学位,并拥有深厚的研究背景和实战经验。
2.精通多模态数据融合(包括视觉、LiDAR、惯性测量单元等)以及三维点云处理技术。
3.对空间关系推理有深入理解,能够设计算法联合推断姿态、地图和语义,支持高级决策和规划。