角色 - Hadoop开发人员
混合型 - 芝加哥,伊利诺伊州 - 1天现场
注意:
应该是芝加哥当地人(不提供搬迁服务)
需要是永久居民或美国公民。不接受签证申请者(无例外)
应该有至少11年以上的整体IT经验(无例外)
必备技能:
• Hadoop
• Hive
• Impala
• SPARK
• Kafka
• Python
• 云
Spark/Scala经验 - 需要使用这些语言或者Impala和Hive来提取数据,使用SPARK结构化流处理
• 基本的SQL技能 - 至少熟悉MySQL、HIVE、Impala、SPARK SQL中的一种或多种
• 从消息队列、文件共享、REST API、关系数据库等进行数据摄取,并具有json、csv、xml、parquet等数据格式的经验
• 有Spark、Sqoop、Kafka的工作经验,并具有至少一种Scala、Python、PHP或Shell脚本的编程经验
• 必须具备Linux操作系统的经验和熟练度
• 解决平台问题和连接问题
• 有使用Cloudera管理器门户和YARN的经验
• 在共享集群/云环境中解决复杂的资源争用问题
工作类型:合同