• 具备多个大规模企业级Hadoop或大数据、Data Bricks、Cloudera、HD Insights或其他以运营、设计、容量规划、集群设置、安全性、性能调优和监控为重点的环境的经验
• 具备完整的Cloudera CDH/CDP发行版的经验,能够安装、配置和监控Cloudera堆栈中的所有服务。
• 对HDFS、MapReduce、Kafka、Spark和Spark-Streaming、Hive、Impala、HBase、Kudu、Sqoop和Oozie等核心Hadoop服务有深入的理解
• 在企业环境中管理、支持RHEL Linux操作系统、数据库和硬件的经验。
• 精通典型的系统管理和编程技能,如存储容量管理、调试和性能调优。
• 熟练掌握脚本编写(如Bash、KSH等)
• 在企业级别上设置、配置和管理使用Kerberos与LDAP/AD集成的Hadoop集群的安全性的经验。
• 具备大型企业规模、资源分离概念以及这些环境运行的物理性质方面的经验(存储、内存、网络和计算)
期望的技能:
• Cloudera Hadoop、云计算(Azure、AWS、Google)或RHEL等多个领域的认证
• 版本控制系统(Git)的经验
• 使用Spectrum Conductor或Databricks与Apache Spark的经验
• 掌握不同的编程语言(Python、Java、R)
• 企业数据库管理平台经验
• 在包括SAS、搜索、机器学习、日志聚合在内的大型分析工具方面的经验
• 有云端Hadoop发行版的经验,如AWS、Azure、Google
• 具备完整的Cloudera CDH发行版的经验,能够安装、配置和监控CDH堆栈中的所有服务
工作类型:全职
薪资:每年113,243.56美元至140,000.00美元
福利:
• 401(k)退休储蓄计划
• 牙科保险
• 健康保险
工作时间:
• 8小时轮班
能否搬迁:
• 纽约,纽约:在开始工作之前搬迁(必需)
工作地点:亲自到岗