职位概要
The Elite Job 正在寻找一位具备 Hadoop 和 Spark 专业知识的高技能大数据分析师,加入我们充满活力的分析团队。成功的候选人将利用先进的大数据技术来处理、分析和解释庞大的数据集,提供可操作的见解,以推动战略业务决策。此职位需要一位积极主动、注重细节的专业人士,他们在快节奏的环境中茁壮成长,并热衷于将原始数据转化为有意义的业务成果。
主要职责
• 设计、开发和维护基于 Hadoop 和 Spark 的可扩展数据管道,用于大规模数据处理。
• 从多个结构化和非结构化来源提取、转换和加载(ETL)复杂数据集。
• 与数据工程师、数据科学家和业务利益相关者合作,了解数据需求并提供分析解决方案。
• 优化和排除大数据工作流故障,以确保高性能、可靠性和数据准确性。
• 实施并执行数据治理、质量标准和最佳实践。
• 执行高级数据分析、模式识别和预测建模,以支持战略计划。
• 准备详细的报告和可视化,以向技术和非技术利益相关者传达发现。
• 了解最新的大数据技术、趋势和最佳实践,不断增强基础设施和分析能力。
所需技能和资格
• 具有 Hadoop 生态系统工具(HDFS、Hive、Pig、HBase)的丰富实践经验。
• 具备 Apache Spark 分布式数据处理的专业知识。
• 熟练掌握 Python、Java 或 Scala 等编程语言。
• 具有 SQL 和 NoSQL 数据库的经验。
• 熟悉数据仓库、ETL 过程和数据建模技术。
• 对大数据架构、框架和云平台(AWS、Azure 或 GCP)有扎实的理解。
• 能够处理大型数据集,进行数据清理,并确保数据质量。
• 优秀的问题解决、分析和批判性思维能力。
经验
• 至少 3-5 年大数据分析经验,最好是在专注于 Hadoop 和 Spark 基础设施的角色中。
• 在复杂的企业环境中成功交付数据驱动项目的良好记录。
• 在金融服务、电子商务或技术行业的经验是一个加分项。
工作时间
• 全职职位。
• 灵活的工作时间,提供远程或混合工作安排的选项。
• 可能需要偶尔加班以满足项目截止日期或支持全球团队。
知识、技能和能力
• 具有将数据洞察转化为业务价值的强大分析思维。
• 出色的沟通和协作能力,能够与跨职能团队有效合作。
• 能够在快节奏、动态环境中管理多个优先事项。
• 注重细节,具备强大的组织和文档编写能力。
• 自我激励,具备对新技术和工具的持续学习态度。
福利
• 具有竞争力的薪资和基于绩效的奖励。
• 健康、牙科和视力保险。
• 灵活的远程工作选项和慷慨的带薪休假。
• 职业发展机会,包括培训和认证支持。
• 重视创新和创造力的协作和包容性工作文化。
为什么加入 The Elite Job
在 The Elite Job,我们赋予员工利用尖端技术的能力,提供真正产生影响的数据驱动解决方案。您将成为一个鼓励创新、学习和成长的前瞻性组织的一员。加入一支充满热情的专业团队,他们重视创造力、协作和卓越。
如何申请
有兴趣的候选人请提交简历和求职信,突出相关经验。请在主题行中注明“大数据分析师 – Hadoop & Spark”。入围的候选人将被联系以进行进一步评估和面试。