一家由私募股权支持的供应商情报领导者正在寻求一名数据工程师,以支持一项主要的技术现代化倡议。该组织在美国拥有 170 名员工,正在快速增长,并在其数据基础设施上进行战略投资。该平台为全球一些最大的企业提供采购和供应链决策支持,利用超过 1100 万个供应商档案、超过 3.5 亿个数据属性以及 9 万亿美元的历史支出。技术栈包括 Snowflake、GCP、Python、SQL、Airflow、DBT、PySpark、Docker、MySQL 和 PostgreSQL。
这是一个令人兴奋的机会,可以在转变企业级供应商数据处理和交付的方式中发挥关键作用。您将加入一个前瞻性的工程团队,负责将遗留系统迁移到 Snowflake,并在 GCP 上架构可扩展的自动化数据摄取管道,以推动公司的快速增长。该角色主要是动手实践,提供影响架构决策和指导初级工程师的机会。这是一个理想的机会,适合希望对有影响力的项目拥有自主权、直接接触现代云原生工具,并有明确职业发展路径的中级数据工程师。
所需技能与经验
· 3-5 年专业数据工程经验
· 精通 Snowflake
· 熟练掌握 Python 和 SQL
· 具有 Airflow 和 DBT 的经验
· 具备 PySpark 的分布式数据处理知识
· 具备 Docker 和容器化经验
· 熟悉 MySQL 或 PostgreSQL
· 云经验(优先考虑 GCP;接受 AWS/Azure)
· 能够独立排查和解决问题
· 强大的跨职能协作沟通能力
期望技能与经验
· 具有 SSIS 或遗留 ETL 工具的经验(有帮助但不是必需)
· 在分销、供应链或供应商相关行业的背景
· 有指导初级工程师的经验
· 接触过编排策略设计和优化
· 具有使用 Jira 的敏捷团队经验
您将要做的工作
技术分解
· 40% Python
· 25% SQL 和关系数据库(MySQL、PostgreSQL)
· 20% 编排(Airflow、DBT)
· 15% 分布式处理(PySpark)
日常职责
· 80% 动手开发(数据管道、摄取、自动化)
· 10% 架构输入和设计
· 10% 指导和团队协作
您将获得以下福利:
· 医疗、牙科和视力保险
· 休假/假期时间
· 混合工作模式
· 职业发展和晋升潜力
申请者必须目前有权在美国全职工作,并且将来也能继续工作。
#LI-MW9