人工智能安全工程师

迪拜 无个税9天前全职 网络
面议
工作总结 作为SentraAI的AI安全工程师,您将在AI架构、应用安全和攻击性安全的交汇处工作,帮助企业组织设计、部署和操作安全设计和生产可防御的AI系统。 您将与AI工程师、平台团队和安全利益相关者紧密合作,将运行时护栏、安全可观测性和持续的AI红队测试嵌入到实际生产系统中。此角色负责将AI威胁模型转化为具体的工程控制,并确保AI系统在演变过程中保持安全、可审计和有弹性。 这是一个动手实践的角色,适合那些理解AI安全是一种操作学科而非政策演练的从业者。 关于SentraAI SentraAI是一家专注于企业AI的专业公司,致力于帮助大型、受监管的组织将AI和数据平台从实验转变为安全和可持续的生产。 我们在企业运行状态下工作,治理、操作风险、变更控制和长期所有权是交付的核心。我们的团队被信任设计和交付可以运行、审计和演变的系统、平台和操作模型,而不仅仅是启动。 我们优先考虑工程纪律、架构清晰和交付质量,而不是速度表演或炒作。 主要职责 AI威胁建模和安全架构 - 指导应用和平台团队在整个生命周期中进行AI和LLM系统的威胁建模 - 开发和维护符合公认标准和监管期望的AI特定威胁模型 - 将威胁模型转化为明确的架构控制、安全要求和验收标准 - 就安全AI设计模式提供建议,包括最小特权、隔离和人机交互保护措施 安全实施和运行时执行 - 与AI和ML工程师密切合作,确保在应用代码库中安全实施AI护栏 - 确保对文本、文档和多模态输入进行稳健的输入清理、验证和提示硬化 - 确保正确实施输出验证、编辑和数据外泄防护机制 - 评估、测试和支持LLM安全框架和检测机制的部署 - 确保按照监管和审计要求捕获安全相关的遥测和日志 AI安全可观测性和SOC集成 - 定义和发布AI特定的安全指标用于操作监控和警报 - 实现对AI安全信号的实时可见性,如异常行为、提示滥用或工具误用 - 为下游安全操作和事件响应团队提供可操作的AI安全背景 AI红队测试和攻击性安全集成 - 将自动化AI安全测试嵌入CI/CD管道,包括提示模糊测试和回归测试 - 支持和指导攻击性安全团队进行LLM特定攻击场景 - 将AI红队工具和定制对抗性测试用例操作化 - 确保发现反馈到护栏调优、检测逻辑和自适应防御机制中 所需资格 核心经验 - 在应用开发、安全工程或平台工程方面有扎实背景 - 具有与AI驱动的应用、LLM或ML管道合作的实际经验 - 在应用安全概念和安全软件设计方面有扎实基础 - 具有实施或集成AI护栏、清理和运行时安全控制的实践经验 AI和安全能力 - 对AI和LLM威胁向量有实际理解,如提示注入、数据中毒、工具滥用和代理升级 - 具有与AI工程师、平台团队和攻击性安全从业者密切合作的经验 - 能够将安全意图转化为具体的、可测试的工程控制 有利但非必需 - 具有AI红队工具或对抗性测试框架的经验 - 熟悉安全CI/CD和DevSecOps实践 - 具有在受监管或高度治理的企业环境中操作的经验 - 接触过SOC集成、检测工程或安全可观测性 为什么选择SentraAI - 正确地进行企业AI。 我们的存在是为了将AI和数据从实验带入受监管、受审查并期望每天工作的生产环境。 - 质量不是可选的。 SentraAI建立在工程纪律、设计治理和交付严谨是竞争优势而非负担的信念之上。 - 明确的所有权和责任。 您将被信任承担真实责任、明确任务和有意义的结果,而不是稀释的角色或表演性活动。 - 经得起现实检验的工作。 我们设计的系统、操作模型和决策在上线后数月和数年后仍然有效,而不仅仅是在演示时。 - 运行状态与构建状态同样重要。 我们从第一天起就优化可操作性、可审计性和变更控制,因为这是企业价值的赢或输所在。 - 实质重于炒作。 我们故意避免交付表演、流行语和为新奇而新奇的行为。信誉通过执行获得。 - 向经验丰富的从业者学习。 您将与那些曾构建、破坏、修复和运行企业系统的人一起工作,他们非常关心正确地完成工作。 一家有观点的公司。 SentraAI设计上是有主见的。我们主张少做事但做得更好,并期望我们的员工为此标准感到自豪。 工作类型:全职