Job Information

  • Description:

    【工作职责】:  

    1.参与公司数据平台架构演进。  

    2.对主流大数据开源组件(Hadoop,Spark   )进行优化和定制开发。  

    3.跟进大数据生态系统的最新进展。     

    【岗位要求】:  

    1.本科以上学历熟悉大数据生态系统   Hadoop,  Hbase,  Hive,  Spark,Kylin   等至少一个项目有着深入的了解。     

    2.扎实的   Java/Scala   基础对至少一门动态语言有过使用经验。     

    3.熟悉   Linux   系统常用操作。     

    4.对数据有着强烈兴趣有部署大规模   Hadoop   集群经验者优先。     

    5.良好的学习能力保持对新技术的敏感性。

Contact Information