职位描述:
1. 基于hadoop生态系统进行大数据平台建设;
2. 负责各业务条线相关指标数据的数据建模
3. 负责基于sqoop,hive、spark、sparksql、mysql进行大数据开发
4. 负责离线运算、实时计算平台项目的设计、开发及运维
5. 负责对数据平台进行性能调优
任职要求:
1、.统招本科或以上学历,6年以上大数据开发工作经验;
2.熟练掌握shell、python开发语言;
3.熟练掌握hadoop、hive、hbase、spark、spark sql、storm、sqoop、kafka、flume、sparkmlib等分布式框架原理,有相关的调优、运维、开发经验;
4.熟练掌握mysql数据库集群;
5. 精通主流etl开发工具,如:informatica、data services、kettle;精通主流调度工具,如:azkaban, oozie
6.有数据仓库、分析系统、用户画像等产品开发经验者优先;
7.有较强的数据和业务结合能力;
8.有医疗或者大健康背景优先;
9.有较强的独立、主动的学习能力,良好的沟通表达能力。
因篇幅问题不能全部显示,请点此查看更多更全内容