学术预告

Notice

学术预告

面向深度视觉模型的成员推理攻击及其防御方法研究

日期:2025-11-02
来源:
浏览量:

报告简介:深度视觉模型在感知理解与内容生成等任务中得到广泛应用,但其高度依赖大规模训练数据的特性也带来了成员推理攻击(Membership Inference Attack, MIA)所引发的隐私泄漏风险。而模型在中心端与边缘端的不同部署方式会导致截然不同的攻击。本报告围绕深度视觉模型在真实应用场景中可能面临的成员推理攻击风险展开,介绍了针对不同部署模式、不同模型范式的安全问题,系统研究了深度视觉模型在三类典型场景中的成员推理风险及其防御方法,包括:边缘部署下的压缩视觉模型、不同预训练范式的视觉自监督编码器以及文生图扩散模型的训练数据审计问题。通过系统性的框架设计与多场景多模型验证,为深度视觉模型的隐私保护与安全部署提供了新的思路,同时也为未来深度视觉模型的可信应用奠定基础。

报告人简介:

朱杰,北京大学在读博士生,主要研究方向包括AI安全和多模态大模型,导师是北京大学长聘副教授王乐业老师,目前已发表6篇一作论文,其中CCF-A类(或清华A类)会议期刊5篇,包括ACM CCS,NeurIPS,ICLR,ASE,IEEE TSE。

报告时间:2025年11月3日

报告地点:#腾讯会议:328-152-103

邀请人:丛天硕

地址:山东省济南历城区舜华路1500号 邮编:250101