工作职责
工作内容:
1、建设与优化公司AI安全能力框架、AI业务能力。
2、跨部门协作,与组织内团队、集团其他团队协同,确保AI安全设计符合集团AI业务安全规范。
3、分析组织AI算法模型等安全风险,应用对抗训练、模型可解释性等技术,提升模型在不同场景中的安全性和可信度。
4、建设并优化组织AI数据安全等安全方案,确保AI业务系统应用过程中的数据安全,避免数据泄露。
5、参与AI项目安全设计与审核,评估项目AI安全风险与防护设计方案,并修复安全漏洞。
6、建立快速响应机制,确保在安全事件中具备及时修复和防护能力。
7、关注AI安全攻防新趋势,提供面向AI团队的安全培训,提升团队AI安全意识。
任职资格
岗位要求:
1、硕士及以上学历,计算机安全、人工智能、网络安全等相关专业,具备AI与信息安全重叠领域的研究或实践背景优先。
2、3年以上AI安全经验,深入理解AI算法与模型威胁与防护策略,熟悉NIST、ISO/IEC 23894、ISO/IEC 42001、IEEE 7000、EU AI Act等AI安全标准,有模型防护和数据安全实践经验。
3、精通对抗样本防御、窃取检测等模型安全技术,掌握差分隐私、联邦学习等隐私保护方法,熟悉LIME、SHAP等可解释性方法。
4、具备Python高级编程能力,能进行自动化安全测试和工具开发;熟练使用Burp Suite、Nessus等工具,有云环境中模型加固经验。
5、具备高度安全敏感性和前瞻性,能主动识别与响应潜在威胁;具备良好跨团队协作能力,推动AI安全与业务需求结合。