概述
我们正在寻找一位以技术为主导的AI安全工程师,负责设计、实施和管理AI和ML系统在数据、模型和部署层面的安全性。该角色结合了网络安全、DevSecOps和应用机器学习的深厚专业知识,并具备构建具有弹性、隐私保护和生产安全的AI解决方案的实践经验。
主要职责
- 模型安全与加固:实施对抗性训练、梯度屏蔽、水印和完整性验证以保护ML模型。
- 隐私与数据保护:应用差分隐私、安全聚合和联邦学习技术以保护敏感数据。
- MLOps与基础设施:保护容器化和云原生ML环境(Kubernetes、Docker、Terraform、MLflow、Vault、CI/CD)。
- 安全部署:通过加密、速率限制、身份验证和运行时监控来加固推理API。
- 威胁建模与对抗性测试:进行与ATT&CK-for-ML对齐的威胁建模和红队风格的对抗性、投毒和提示注入攻击测试。
- 监控与可观察性:使用Prometheus、Grafana或ELK实施漂移检测、性能遥测和异常检测。
- 跨职能协作:与数据科学家、ML工程师和安全团队密切合作,在AI生命周期中嵌入安全设计原则。
技术栈与工具
- 语言与框架:Python、Bash、Go、PyTorch、TensorFlow、Hugging Face Transformers、ONNX
- 云与DevSecOps:AWS(SageMaker、ECR、IAM)、Azure ML、GCP Vertex AI、GitHub Actions、Terraform、Vault
- 自动化与集成:Zapier、n8n、Power Automate、LangChain、Dialogflow、Rasa
- 监控与安全运维:Prometheus、Grafana、ELK Stack、Vault、Kubernetes安全控制
优先经验
- 4-7年安全工程、DevSecOps或数据安全经验
- 2-4年在生产环境中保护ML或LLM工作负载的实践经验
- 接触过对抗性ML、LLM安全(提示注入、数据泄漏测试)和隐私保护技术
- 熟悉云原生ML工具(MLflow、Kubeflow、Vertex AI、SageMaker)
- 对AI治理、合规性和安全模型部署框架有深入理解
软技能
- 分析和结构化问题解决能力
- 出色的安全和数据团队之间的利益相关者沟通能力
- 能够将复杂的技术风险转化为业务影响
- 对快速发展的AI安全领域充满好奇心和持续学习的心态
经验期望说明
自2018年以来,AI安全作为一个学科迅速发展。具有网络安全和云工程坚实基础,并有2-5年AI/ML安全实践经验的候选人将非常适合这一角色——即使他们在字面上不符合更长的“AI经验”要求。