**********************
并行计算工程师
  • 收藏职位
  • 分享职位
80-100万 北京 博士 5-8年 招聘 1 人 预计佣金 130K 4天前刷新/两周前发布
迅致直营
职位亮点
知名头部国企
JD基本信息
岗位职责
1、战略与规划:制定并领导实施公司中长期大规模并行计算技术战略与发展路线图,确保其与AI大模型训练、多模态学习、科学计算等业务方向深度契合,保持技术前瞻性。 2、系统架构与设计:主导设计下一代高扩展性、高吞吐、低延迟的大规模并行计算系统架构。决策关键技术选型,涵盖异构硬件(GPU/ASIC/FPGA集群)、高性能网络(InfiniBand/RoCE)、存储架构(并行文件系统、对象存储、NVMe-oF)及底层软件栈。 3、前沿技术探索:深度洞察并行计算、分布式系统及HPC领域的前沿趋势(如新型互联技术、存算一体、光互连、量子计算混合范式等),评估其应用潜力并主导技术原型验证与落地。 4、极致性能优化:领导攻克万卡乃至更大规模集群下的系统性瓶颈(如通信、同步、内存、I/O),设计创新的容错与弹性训练方案,保障超大规模任务的可靠性与资源利用率。 5、技术领导与攻坚:不仅是管理者,更是关键问题的终结者。您将亲自深入代码,指导团队解决最棘手的性能调试、稳定性及调度问题,并建立高标准的技术规范和最佳实践。 6、团队与文化建设:负责组建、培养并领导一支高水平的并行计算技术团队(包括系统架构师、性能优化工程师和底层软件开发工程师),打造追求卓越的技术创新文化。
任职要求
1、全日制博士毕业,计算机、软件工程、人工智能、电子工程、数学等相关专业优先。 2、熟悉PyTorch深度学习框架,熟练使用Python语言,有C++开发经验者优先。 3、熟练高性能计算优化技术,深入理解计算机体系结构,熟悉并行计算优化、访存优化,模型压缩,低比特计算等。 4、熟悉常用深度学习算法优先,例如NLP,CV,语音。 5、熟悉Deepspeed/Megatron等大规模训练框架,熟悉数据并行/模型并行/流水并行等常用分布式训练方案优先。 6、熟悉CUDA生态,有CUDA/NCCL/Cutlass开发经验者优先。 加分项 1、在顶级学术会议或期刊上发表过论文、在知名开源项目中有重大贡献或担任维护者角色、在国际顶级技术会议上有过主题演讲或特邀报告经历的优先。 2、有基于国产硬件​(如华为昇腾、海光DCU、寒武纪等)构建和优化大规模计算平台的经验。 3、在异构计算领域有极深的造诣,特别是在管理复杂异构计算资源(CPU+GPU+FPGA等混合架构)方面有成功经验。 4、有领导AI基础设施团队的经验,熟悉大规模深度学习训练框架(如TensorFlow, PyTorch)的底层并行和优化技术。
所属行业:
通信/网络设备
职能分类:
通信研发工程师
工作城市:
北京,招聘1人,详细地址:北京
职位要求
学历要求:
博士·统招
工作年限:
5-8年
技能/证书:
-
薪资福利
年薪范围:
80-100万*12薪
薪资福利:
五险一金
团队架构
所属部门:
研发
下属人数:
-
部门架构:
工程师-业务负责人
汇报对象:
业务负责人
职级职称:
面试信息
面试轮次:
2轮
面试流程:
业务+HR
视频面试:
可以接受