关于Capgemini:
Capgemini是一家全球领先的合作伙伴,通过利用技术的力量来转型和管理企业业务。该集团每天都以释放人类能量、为包容性和可持续发展的未来而利用技术为目标。作为一个负责任和多元化的组织,Capgemini在50多个国家拥有超过36万名团队成员。凭借其强大的55年历史和深厚的行业专业知识,Capgemini受到客户的信任,能够解决他们业务需求的整个广度,从战略和设计到运营,借助快速发展和创新的云计算、数据、人工智能、连接性、软件、数字工程和平台的世界。该集团在2022年报告的全球收入为220亿欧元。
关于服务线
我们的洞察和数据团队通过将海量数据转化为洞察流,帮助我们的客户做出更好的业务决策。我们的客户是澳大利亚表现最佳的公司之一,他们选择与Capgemini合作有一个非常好的原因 - 我们出色的员工。
角色目标
• 在数据仓库概念和维度数据建模方面有坚实的基础
• 理解与技术和业务需求相关的目标和风险,并相应地调整数据解决方案
角色描述
• 构建由多种数据源组成的稳健、高效和可靠的数据管道,用于摄取和处理数据
• 设计和开发实时流式处理和批处理管道解决方案
职责:
• 为数据迁移和收集、数据分析和其他数据移动解决方案设计、开发和实施数据管道
• 与利益相关者和数据分析团队合作,协助解决与数据相关的技术问题,并支持他们的数据基础设施需求
• 与架构师合作,定义架构和技术选择
个人规格
经验和资格:
• 至少3-8年的经验
• 在构建数据湖解决方案方面,作为大数据工程师至少有2年的实际工作经验,包括摄取和处理来自各种源系统的数据
• 理解软件开发生命周期(SDLC)流程,有在大规模项目中工作的经验,了解数据仓库和ETL开发
• 在快节奏的敏捷环境中工作的经验
• 在DevOps、持续集成和持续交付原则方面有经验,构建用于数据平台部署和生产保证的自动化管道
• 与同行分享知识和最佳实践,促进组织内更好的技术实践
• 具备构建企业数据湖的各种框架的经验者优先考虑
技能特质:
• 在一个或多个云平台(AWS、Azure、GCP和/或Snowflake)上的经验
• 在Java、Scala、Python和Bash、Informatica、集成、ETL、Hadoop、Spark、Hive、Teradata、Cloudera等方面的经验