1.跟踪国内外 AI 安全、大模型安全领域的最新技术动态与安全事件,研究大模型、智能系统的安全风险,配合部门搭建 AI 安全攻防研究体系;
2.开展大模型与智能体内生安全研究,输出标准化风险评估平台与权威技术报告,沉淀可对外发声、行业分享的原创高价值研究成果;
3.进行 AI 代码审计技术研究与落地,利用 AI 工具提升代码漏洞挖掘效率,精准发现代码中的安全问题;
4.研究智能化攻防技术,将 AI 能力融入安全攻防全流程,辅助研发 AI 赋能的攻击工具与平台,支撑团队攻防演练等实战项目;
5.跟踪业内最新 AI 漏洞与安全动态,深入分析漏洞原理与检测手段,开展前沿安全技术研究,输出技术研究成果与解决方案。
任职要求
1.本科及以上学历,计算机、网络安全、人工智能等相关专业,具备网络安全或 AI 安全相关工作经验;
2.熟悉常见网络攻击与防御技术,深入理解漏洞原理,具备扎实的网络安全基础与实战经验;
3.了解机器学习、深度学习、自然语言处理基础理论,熟悉大模型基本原理、提示词工程、RAG 等相关技术;
4.具备 AI 安全研究、AI 代码审计、智能化攻防相关实践经验,有相关工具开发或项目落地经验者优先。
【加分项】
1.在大模型安全、AI 代码审计、智能化攻防等领域有研究成果,或在知名安全平台、会议发表过相关技术文章;
2.独立或参与开发过 AI 安全工具、代码审计系统、智能化攻防平台等相关项目;
3.对安全技术有浓厚兴趣,具备较强的独立钻研、技术攻关能力,有良好的团队协作与技术分享意识。