人工智能治理、合规与伦理专家在整个组织中建立并嵌入负责任的人工智能实践,确保人工智能系统以透明、安全和合规的方式设计、开发和部署。该专家与数据、法律、安全和业务团队密切合作,将伦理实践嵌入人工智能项目及其实施中,确保整个组织的人工智能操作值得信赖且合规。
关于该职位
人工智能治理、合规与伦理专家负责确保所有人工智能系统和用例符合伦理、监管和治理标准,从而实现值得信赖和负责任的人工智能。
职责
• 确保所有人工智能系统和用例符合伦理、监管和治理标准,从而实现值得信赖和负责任的人工智能。
• 将伦理设计原则嵌入人工智能项目生命周期,减少返工、合规风险和部署延迟。
• 通过直接与架构师、数据科学家和业务负责人合作,在设计、开发和监控阶段提供跨职能的伦理人工智能实践领导。
• 监督风险评估、透明度文档、公平性评估和人工智能模型的持续监控的实施。
• 开发和实施人工智能治理框架、政策和标准,确保在DCD中负责任、透明和伦理的人工智能开发和部署。
• 提前与架构师、数据科学家、人工智能专家和项目经理合作,将伦理和治理要求嵌入模型设计、数据来源、架构决策和实施计划中。
• 监控人工智能系统是否符合监管要求、行业指南、数据保护法律和内部治理政策。
• 进行人工智能风险评估,包括公平性、偏见、可解释性、问责制、隐私和社会影响评估。
• 建立伦理人工智能护栏,确保所有人工智能项目与组织价值观、法律期望和国际最佳实践保持一致。
• 与技术团队合作,在批准和部署之前评估和验证高风险用例、模型和算法。
• 定义并监督模型文档要求——模型卡、数据表、审计日志、可追溯性、透明度报告和生命周期文档。
• 开发审计和监控机制,以检测模型生命周期中的漂移、误用、偏见和性能退化。
• 监督负责任的数据使用实践,确保合法的数据来源、适当的隐私控制、质量标记和同意管理。
• 开展培训、意识和能力建设计划,以在人工智能团队和DCD单位中灌输负责任的人工智能实践。
• 跟踪全球和阿联酋人工智能监管发展,为领导层提供即将出台的标准和合规影响的建议。
• 支持部门经理在人工智能项目的伦理风险、缓解策略和合规考虑方面做出明智决策。
资格
• 数据科学、人工智能/机器学习、计算机科学、网络安全、法律、伦理或相关领域的学士或硕士学位。
• 6年以上人工智能治理、数据治理、合规、风险管理或负责任的人工智能项目经验。
• 对人工智能伦理原则、公平/偏见检测、可解释性、模型透明度和负责任的人工智能框架有深入理解。
• 了解全球人工智能法规和标准(如阿联酋人工智能法、OECD人工智能原则、ISO/IEC 42001、数据保护和隐私法律)。
• 有与跨职能团队(法律、数据、安全、工程)合作评估、批准和监控人工智能模型和高风险用例的经验。
• 具备强大的分析、文档和沟通能力,能够将复杂的人工智能概念转化为治理和合规要求。
必备技能
• 对人工智能伦理原则的深入理解。
• 在合规和风险管理方面的经验。
• 能够与跨职能团队合作。
• 强大的分析和沟通能力。
优先技能
• 了解全球人工智能法规和标准。
• 有开发治理框架的经验。
• 熟悉人工智能模型评估和监控。
平等机会声明
我们致力于在招聘实践中实现多样性和包容性,并鼓励所有合格的个人申请。