**********************
数据产品经理
  • 收藏职位
  • 分享职位
65-80万 北京 本科 不限 招聘 1 人 预计佣金 84K 02:30发布
72小时新发
JD基本信息
岗位职责
1. 负责大数据开发治理平台(类似阿里 dataworks、腾讯 wedata)的整体产品规划,结合公司业务战略及大数据技术趋势,制定平台功能演进路线图,明确短期迭代目标与中长期发展愿景 2. 深度理解大数据开发全链路场景(如数据集成、开发调试、任务调度、数据质量监控、元数据管理、数据安全合规等),主导核心功能模块(如可视化工作流编排、实时/离线任务调度引擎、数据血缘与影响分析、数据资产目录等)的需求调研、产品设计及原型输出 3. 协同架构师、算法团队梳理技术边界,将复杂的大数据底层能力(如分布式计算、存储优化、权限控制等)转化为易用的开发者工具与治理流程,平衡功能完备性与用户体验 4. 协同大数据研发团队(如调度引擎、元数据、权限、集成等模块负责人)、前端/后端工程师、测试团队推进产品落地,参与技术方案评审,确保产品设计的技术可行性 5. 联动数据治理、数据安全、运维等团队,推动数据标准、质量规则、安全策略(如脱敏、权限分级)等产品化落地,构建"开发-治理-运营"一体化闭环 6. 跟踪大数据开发治理领域的关键技术趋势(如 serverless 化、湖仓一体、实时数仓), 研究国内外头部产品(如阿里 dataworks、腾讯 wedata、aws glue、databricks deltalivetables 等)的功能演进, 关注行业前沿理论(如数据治理方法论、devops fordata)并结合业务场景需要推动最佳实践落地
任职要求
1. 本科及以上学历,计算机、统计学、数学、信息管理等相关专业(优秀者可放宽) 2. 5 年以上大数据/tob 工具类产品经验,其中至少 3 年担任大数据开发治理平台(或类似 dataworks/wedata、airflow 商业化版本等产品)的核心产品经理角色,有从0到 1 搭建经验者优先. 熟悉大数据技术栈(如 hadoop、spark、flink、kafka、hive 等), 了解数据开发全链路流程(采集→存储→计算→调度→治理)及常见痛点 熟悉工作流引擎、任务调度、元数据管理等底层技术原理,能快速与研发团队对齐技术方案 2. 产品设计能力:擅长复杂系统的功能拆解与流程设计,能输出逻辑清晰的prd、流程图及原型(熟练使用 axure/figma/sketch 等工具) 具备优秀的抽象能力,能将技术能力转化为开发者友好的工具 3. 用户洞察力: 4. 数据分析能力:熟练使用 sql、excel 或 bi 工具分析用户行为数据,通过数据驱动产品优化决策. 能力素质: 1. 强烈的责任心与 owner 意识,能主导复杂项目的全流程推进(从需求评审到上线迭代),协调跨部门资源解决关键问题 2. 优秀的沟通与协作能力,能清晰表达技术方案逻辑,平衡用户需求、业务目标与技术实现的平衡 3. 抗压能力强,适应大数据领域快速迭代的技术节奏,对新技术保持敏感度.
所属行业:
互联网金融、消费金融、互联网类其他
职能分类:
数据产品经理
工作城市:
北京,招聘1人,详细地址:朝阳区东三环北路19号楼中青大厦1903室
职位要求
学历要求:
本科·统招·一本
工作年限:
不限
技能/证书:
-
薪资福利
年薪范围:
65-80万*16薪
薪资福利:
【上班时间】:10∶00-19:00 弹性上班 不打卡,双休, 【福利待遇】: 年 14 薪;足额七险一金; 年假 10+n(司龄);每月带薪病假不累计(无需提供医院证明); 免费提供午餐、晚餐、零食、水果、饮料等 年度免费体检,家人可享受团购价 ;定期团建和周年庆
团队架构
所属部门:
-
下属人数:
-
部门架构:
-
汇报对象:
-
职级职称:
-
面试信息
面试轮次:
4轮
面试流程:
-
视频面试:
可以接受
为你推荐