工作总结
作为SentraAI的AI安全工程师,您将在AI架构、应用安全和攻击性安全的交汇处工作,帮助企业组织设计、部署和操作安全设计和生产可防御的AI系统。
您将与AI工程师、平台团队和安全利益相关者紧密合作,将运行时护栏、安全可观测性和持续的AI红队测试嵌入到实际生产系统中。此角色负责将AI威胁模型转化为具体的工程控制,并确保AI系统在演变过程中保持安全、可审计和有弹性。
这是一个动手实践的角色,适合那些理解AI安全是一种操作学科而非政策演练的从业者。
关于SentraAI
SentraAI是一家专注于企业AI的专业公司,致力于帮助大型、受监管的组织将AI和数据平台从实验转变为安全和可持续的生产。
我们在企业运行状态下工作,治理、操作风险、变更控制和长期所有权是交付的核心。我们的团队被信任设计和交付可以运行、审计和演变的系统、平台和操作模型,而不仅仅是启动。
我们优先考虑工程纪律、架构清晰和交付质量,而不是速度表演或炒作。
主要职责
AI威胁建模和安全架构
- 指导应用和平台团队在整个生命周期中进行AI和LLM系统的威胁建模
- 开发和维护符合公认标准和监管期望的AI特定威胁模型
- 将威胁模型转化为明确的架构控制、安全要求和验收标准
- 就安全AI设计模式提供建议,包括最小特权、隔离和人机交互保护措施
安全实施和运行时执行
- 与AI和ML工程师密切合作,确保在应用代码库中安全实施AI护栏
- 确保对文本、文档和多模态输入进行稳健的输入清理、验证和提示硬化
- 确保正确实施输出验证、编辑和数据外泄防护机制
- 评估、测试和支持LLM安全框架和检测机制的部署
- 确保按照监管和审计要求捕获安全相关的遥测和日志
AI安全可观测性和SOC集成
- 定义和发布AI特定的安全指标用于操作监控和警报
- 实现对AI安全信号的实时可见性,如异常行为、提示滥用或工具误用
- 为下游安全操作和事件响应团队提供可操作的AI安全背景
AI红队测试和攻击性安全集成
- 将自动化AI安全测试嵌入CI/CD管道,包括提示模糊测试和回归测试
- 支持和指导攻击性安全团队进行LLM特定攻击场景
- 将AI红队工具和定制对抗性测试用例操作化
- 确保发现反馈到护栏调优、检测逻辑和自适应防御机制中
所需资格
核心经验
- 在应用开发、安全工程或平台工程方面有扎实背景
- 具有与AI驱动的应用、LLM或ML管道合作的实际经验
- 在应用安全概念和安全软件设计方面有扎实基础
- 具有实施或集成AI护栏、清理和运行时安全控制的实践经验
AI和安全能力
- 对AI和LLM威胁向量有实际理解,如提示注入、数据中毒、工具滥用和代理升级
- 具有与AI工程师、平台团队和攻击性安全从业者密切合作的经验
- 能够将安全意图转化为具体的、可测试的工程控制
有利但非必需
- 具有AI红队工具或对抗性测试框架的经验
- 熟悉安全CI/CD和DevSecOps实践
- 具有在受监管或高度治理的企业环境中操作的经验
- 接触过SOC集成、检测工程或安全可观测性
为什么选择SentraAI
- 正确地进行企业AI。
我们的存在是为了将AI和数据从实验带入受监管、受审查并期望每天工作的生产环境。
- 质量不是可选的。
SentraAI建立在工程纪律、设计治理和交付严谨是竞争优势而非负担的信念之上。
- 明确的所有权和责任。
您将被信任承担真实责任、明确任务和有意义的结果,而不是稀释的角色或表演性活动。
- 经得起现实检验的工作。
我们设计的系统、操作模型和决策在上线后数月和数年后仍然有效,而不仅仅是在演示时。
- 运行状态与构建状态同样重要。
我们从第一天起就优化可操作性、可审计性和变更控制,因为这是企业价值的赢或输所在。
- 实质重于炒作。
我们故意避免交付表演、流行语和为新奇而新奇的行为。信誉通过执行获得。
- 向经验丰富的从业者学习。
您将与那些曾构建、破坏、修复和运行企业系统的人一起工作,他们非常关心正确地完成工作。
一家有观点的公司。
SentraAI设计上是有主见的。我们主张少做事但做得更好,并期望我们的员工为此标准感到自豪。
工作类型:全职