**********************
多传感器融合感知算法工程师
  • 收藏职位
  • 分享职位
30-60万 广州 本科 5-8年 招聘 1 人 预计佣金 79.4K 3天前发布
迅致直营
JD基本信息
岗位职责
岗位职责 负责割草机器人多传感器融合感知模块的研发与落地 融合 livox mid-360 激光雷达 与 gmsl2 摄像头,构建高精度、高鲁棒性的环境感知能力 实现 bev(bird's-eye-view)感知:检测障碍物、草坪边界、低矮物体、负障碍(坑洼)等 开发 占用网格 / 占用网络(occupancy grid / occupancy network),输出稠密占据概率,用于规划模块直接使用. 激光雷达与视觉前融合 / 后融合 设计点云与图像的前融合(如投影到bev空间)或后融合策略,提升感知精度与召回率 处理稀疏点云(mid-360 非重复扫描特性)与图像之间的时间同步、外参标定. 障碍物检测与可通行区域分割 基于 bev 特征,输出障碍物位置、大小、类别(草、石头、树枝、人、宠物等) 实现 可通行区域 / 可割草区域 的实时分割,支持规划层决策. 嵌入式平台工程化与性能优化 将 bev / 占用模型部署到 jetson orin / rk3588/地平线s100 等边缘设备,优化推理延迟 与规划团队协作,将感知结果通过 ros2 接口稳定输出给 nav2 / fields2cover. 多场景实地验证与迭代 参与草地、坡地、复杂光照(逆光、阴影、夜间)等场景测试,解决漏检、误检、占用模糊等问题 建立仿真环境中的 bev 感知验证流程(如使用 carla/isaac sim + 真实数据回放).
任职要求
任职要求 本科及以上学历,计算机、自动化、机器人、人工智能等相关专业. 熟悉 bev 感知 / 占用网络算法 了解 bevformer、bevdet、lss、petr 等常用 bev 框架之一 熟悉 occupancy network(如 occnet、tpvformer、surroundocc)或有占用网格生成实际经验. 精通激光雷达与视觉融合 熟练处理点云(滤波、下采样、特征提取),熟悉点云投影到图像或 bev 空间 有实际多传感器外参标定、时间同步经验. 扎实的深度学习基础 熟练使用 pytorch / tensorflow,能独立训练部署 bev/占用模型 熟悉目标检测(yolo系列)、语义分割(unet、deeplab)、3d检测(pointpillars、centerpoint)等基础任务. 工程能力强 熟练 c++/python,熟悉 ros2 开发,能将模型高效封装为推理节点 有 tensorrt / onnx runtime 等加速经验,了解量化(int8/fp16). 对激光雷达特性有理解 熟悉 livox mid-360 或类似固态激光雷达的特点(非重复扫描、近场盲区、点云密度分布),能针对性设计感知策略. 加分项(优先录用) 有割草机器人、扫地机器人、低速无人车 bev/占用感知落地经验,尤其户外草坪场景 熟悉 bev 下的在线建图(如 vectormapnet、maptr),用于构建可割草区域边界 有视觉 - 激光雷达融合的主动学习或域自适应经验(应对不同草地、光照变化) 了解 nerf / 3d 重建,用于构建仿真训练数据 有 gmsl 摄像头驱动及同步开发经验.
所属行业:
其他制造业、工业自动化
职能分类:
算法工程师
工作城市:
广州,招聘1人,详细地址:广州市黄埔区金地威新龙盛黄埔科创园B103
职位要求
学历要求:
本科·统招·二本
工作年限:
5-8年
技能/证书:
-
薪资福利
年薪范围:
30-60万*13薪
薪资福利:
-
团队架构
所属部门:
-
下属人数:
-
部门架构:
-
汇报对象:
-
职级职称:
-
面试信息
面试轮次:
2轮
面试流程:
-
视频面试:
可以接受
为你推荐