职位名称:Hadoop开发人员
地点:亚特兰大,佐治亚州,凤凰城,亚利桑那州
可提供搬迁支持
合同雇佣
12个月以上的合同
07+年工作经验
必备技能:
• 在Hadoop堆栈和存储技术(HDFS,MapReduce,Yarn,HIVE,sqoop,Impala,spark,flume,Kafka和oozie)方面有3-6年经验
• 对大数据企业架构(首选Cloudera)有深入了解
• 出色的分析能力-对算法有浓厚兴趣
• 有HBase,RDBMS,SQL,ETL和数据分析经验
• 有No SQL技术经验(例如,Cassandra/ MongoDB等)
• 熟练掌握脚本编程(Unix/Linux)和调度(Autosys)
• 有团队交付/发布流程经验,并了解与代码部署和发布相关的节奏
• 研究导向型,积极主动,自我激励,具备较强的技术,分析和人际交往能力
• 具备良好的口头和书面沟通能力的团队合作者,能够与架构师,开发人员,业务/数据分析师,质量保证人员和客户利益相关者合作
• 多才多艺的资源,具备平衡的开发技能和商业头脑,能够以快速和准确的速度操作
• 熟练理解分布式计算原理。持续评估新技术,创新并提供关键业务应用的解决方案
职责:
• 支持数据和分析平台,信息管理和解决方案交付
• 确保复杂数据解决方案的设计和工程方法在多个流程和系统中保持一致,同时构建支持数据转换、数据结构、元数据、数据质量控制、依赖和工作负载管理的流程
• 负责定义内部控制,识别数据管理标准遵从性方面的差距,并与适当的合作伙伴合作制定关闭差距的计划,领导概念和实验测试以综合结果并验证和改进解决方案,记录和传达部署、维护、支持和业务功能所需的信息
• 可能需要指导初级数据工程师并指导团队成员进行交付/发布活动
期望的技能:
• 面向对象的编程和设计经验
• 计算机科学或同等学位
• 有自动化测试方法和框架的经验,包括JUnit
• Python集成开发环境(Django,Flask),在基于Python的环境中进行数据处理和分析
• Python数据结构、集合、Pandas用于文件和其他类型的数据处理、可视化等基础知识
• 可视化分析工具知识(Tableau)
• 有与Hadoop生态系统集成的大数据分析和商业智能以及行业标准工具的经验(R,Python)
• Hadoop生态系统上的数据集成、数据安全(Kerberos)
• 任何大数据认证(例如,Cloudera的CCP,CCA)