职位:数据工程师,具有 Python、人工智能、Azure/AWS 和资本市场的最新经验
工作地点:加拿大安大略省多伦多(混合办公,每周 3 天)– 仅限多伦多本地人
招聘经理说明:
• **我们需要:一位具有丰富经验的高级数据工程师,能够在金融/资本市场环境中使用 Python 和人工智能。候选人将通过构建可扩展的数据管道和系统来支持生成性人工智能平台。此角色将传统数据工程与现代开发实践相结合,包括接触 API 和微服务,以实现 AI/ML 集成。开发一个全面的生成性人工智能计划,覆盖整个投资组合,重点是将人工智能能力整合到银行和资本市场中。
生成性人工智能工具开发:他们正在构建一个类似于 ChatGPT 的专有工具,专为投资银行部门量身定制。
目标用户:投资银行家。
使用案例:利用内部银行数据提供智能的实时洞察。
职位描述:
需要一名数据工程师,通过构建可扩展的数据管道和系统来支持生成性人工智能平台。此角色将传统数据工程与现代开发实践相结合,包括接触 API 和微服务,以实现 AI/ML 集成。
混合工作安排:每周在办公室工作 3 天
主要职责:
· 设计和构建结构化和非结构化数据的 ETL/ELT 管道。
· 开发和优化用于分析和机器学习工作流的数据模型。
· 支持 API 集成,并协作开发轻量级服务,公开数据资产。
· 与数据科学家和机器学习工程师合作,将数据集和特性投入生产。
· 确保系统间的数据质量、可扩展性和性能。
必备条件:
· 5 年以上数据工程或后端开发经验。
· 精通 Python、SQL 和分布式系统(例如:Spark、Kafka、Airflow)。
· 具备云平台(优先考虑 AWS)和数据湖/数据仓库设计经验。
· 熟悉 API 或事件驱动架构者优先。
加分条件:
· 接触机器学习管道、特征存储或人工智能平台。
· 具有金融服务或受监管环境的经验。
· 理解数据治理和安全最佳实践。
工作类型:全职
薪资:每年 $160,000.00-$190,000.00
通勤/搬迁能力:
• 多伦多,安大略省 M8Z 1P7:可靠通勤或计划在开始工作前搬迁(必需)
申请问题:
• 你的工作许可和当前地点是什么?因为我们只需要多伦多本地人/1 小时车程内的人。
经验:
• 数据工程或后端开发:6 年(必需)
• Python、SQL:5 年(必需)
• Spark、Kafka、Airflow:5 年(必需)
• AWS/Azure:5 年(必需)
• 人工智能/机器学习:5 年(必需)