职位要求
岗位职责:
1、负责hadoop数据分析集群的搭建和维护;2、根据需求开发、优化MapReduce数据处理;3、负责项目技术架构、系统设计、核心代码开发;
岗位要求:
1熟悉hadoop/spark等一种或几种分布式计算平台,理解mapreduce原理;2、熟悉java/jvm/内存管理,有分布式任务开发经验;3、了解hbase/hive/impala/hdfs,了解集群资源管理yarn/mesos等;4、理解Mapredcue计算过程,能根据业务需求设计出适合mapreduce计算模型的计算方法;