安全架构师 - AI 威胁建模师;b3617

渥太华 9天前全职 网络
面议
职位:安全架构师 - AI威胁建模师 (b3617) 描述: 安全架构师 – AI威胁建模师 概述 我们正在寻找一位经验丰富的网络安全架构师,担任我们网络安全架构团队的一员,负责AI威胁建模。在这个角色中,您将负责识别、分析和缓解特定于人工智能(AI)和机器学习(ML)系统的安全威胁。您将与工程、数据科学和安全团队合作,确保AI驱动的解决方案具有稳健性、弹性,并符合行业标准和法规。 您还将偶尔被要求参与安全系统设计、架构框架和技术战略的贡献,重点关注新兴的AI技术。 主要职责 • 分析AI解决方案(聊天机器人、代理、代理系统等)的设计和架构,以识别安全漏洞、威胁和攻击向量。 • 开发和维护AI/ML系统的威胁模型,考虑对抗性机器学习、数据中毒、模型反演、提示注入、隐私风险、误用场景和其他AI特定威胁。 • 评估AI系统组件(包括数据管道、模型训练、推理、API、部署环境等)对攻击的易感性和安全标准的合规性。 • 创建详细的威胁报告,概述识别的风险、推荐的缓解措施和业务影响。 • 与业务部门、产品负责人和工程团队合作,优先考虑和实施针对发现的漏洞和风险的安全控制和缓解措施。 • 及时了解AI/ML安全领域的新兴威胁、漏洞和最佳实践。 • 为技术团队提供关于安全AI/ML开发和部署实践的培训和指导。 • 参与AI安全架构框架、政策和标准的开发。 技能与经验 • 计算机科学、网络安全、数据科学或相关领域的学士/硕士学位(或类似)。 • 5年以上网络安全架构、威胁建模或AI/ML工程经验。 • 对AI/ML概念、架构和常见框架(如TensorFlow、PyTorch、Scikit-learn)有深入理解。 • 应用威胁建模和威胁建模技术(如STRIDE、DREAD、PASTA)和安全风险评估的知识。 • 能够从项目团队中提取/澄清/理解业务需求和解决方案设计,识别威胁和风险,并将潜在风险转化为项目团队必须实施的安全要求。 • 熟悉AI/ML特定威胁,如对抗性示例、模型提取和数据中毒。 • 优秀的分析、沟通和文档编写能力。能够向技术和非技术利益相关者传达复杂的AI安全风险是必须的。 • 能够在跨职能团队中协作工作。 优先技能 • 具有基于云的AI/ML平台(如AWS Sage Maker、Azure ML、Google AI Platform)的经验。 • 了解与AI/ML相关的法规要求和标准(如NIST AI RMF、ISO/IEC 27001)。 • 安全认证(如CISSP、CCSP、OSCP)或AI/ML认证是加分项。 • 具有威胁建模工具的经验和MITRE框架(ATLAS、CAPEC、ATT&CK、D3FEND)的知识。