JD基本信息
岗位职责
岗位职责
负责割草机器人多传感器融合感知模块的研发与落地
融合 livox mid-360 激光雷达 与 gmsl2 摄像头,构建高精度、高鲁棒性的环境感知能力
实现 bev(bird's-eye-view)感知:检测障碍物、草坪边界、低矮物体、负障碍(坑洼)等
开发 占用网格 / 占用网络(occupancy grid / occupancy network),输出稠密占据概率,用于规划模块直接使用.
激光雷达与视觉前融合 / 后融合
设计点云与图像的前融合(如投影到bev空间)或后融合策略,提升感知精度与召回率
处理稀疏点云(mid-360 非重复扫描特性)与图像之间的时间同步、外参标定.
障碍物检测与可通行区域分割
基于 bev 特征,输出障碍物位置、大小、类别(草、石头、树枝、人、宠物等)
实现 可通行区域 / 可割草区域 的实时分割,支持规划层决策.
嵌入式平台工程化与性能优化
将 bev / 占用模型部署到 jetson orin / rk3588/地平线s100 等边缘设备,优化推理延迟
与规划团队协作,将感知结果通过 ros2 接口稳定输出给 nav2 / fields2cover.
多场景实地验证与迭代
参与草地、坡地、复杂光照(逆光、阴影、夜间)等场景测试,解决漏检、误检、占用模糊等问题
建立仿真环境中的 bev 感知验证流程(如使用 carla/isaac sim + 真实数据回放).
任职要求
任职要求
本科及以上学历,计算机、自动化、机器人、人工智能等相关专业.
熟悉 bev 感知 / 占用网络算法
了解 bevformer、bevdet、lss、petr 等常用 bev 框架之一
熟悉 occupancy network(如 occnet、tpvformer、surroundocc)或有占用网格生成实际经验.
精通激光雷达与视觉融合
熟练处理点云(滤波、下采样、特征提取),熟悉点云投影到图像或 bev 空间
有实际多传感器外参标定、时间同步经验.
扎实的深度学习基础
熟练使用 pytorch / tensorflow,能独立训练部署 bev/占用模型
熟悉目标检测(yolo系列)、语义分割(unet、deeplab)、3d检测(pointpillars、centerpoint)等基础任务.
工程能力强
熟练 c++/python,熟悉 ros2 开发,能将模型高效封装为推理节点
有 tensorrt / onnx runtime 等加速经验,了解量化(int8/fp16).
对激光雷达特性有理解
熟悉 livox mid-360 或类似固态激光雷达的特点(非重复扫描、近场盲区、点云密度分布),能针对性设计感知策略.
加分项(优先录用)
有割草机器人、扫地机器人、低速无人车 bev/占用感知落地经验,尤其户外草坪场景
熟悉 bev 下的在线建图(如 vectormapnet、maptr),用于构建可割草区域边界
有视觉
- 激光雷达融合的主动学习或域自适应经验(应对不同草地、光照变化)
了解 nerf / 3d 重建,用于构建仿真训练数据
有 gmsl 摄像头驱动及同步开发经验.
工作城市:
广州,招聘1人,详细地址:广州市黄埔区金地威新龙盛黄埔科创园B103