深度学习的安全与隐私 from ChatGPT.pdf

深度学习的安全与隐私 from ChatGPT.pdf
该文档是一份关于“深度学习的安全与隐私”的PyCon China 2022演讲稿,题为“Python for Good”。内容主要围绕深度学习模型面临的三类风险:机密性风险、完整性风险和可用性风险展开,并针对每种风险探讨了相应的攻击方法和防御策略。 1. **机密性风险:** 主要指模型和训练数据可能被泄露。攻击方法包括: * 面向模型:模型萃取攻击 * 面向数据:成员推理攻击、属性推理攻击、模型逆向攻击等,还提到了Unintended Memorization问题。 针对机密性风险,防御策略包括: * 基于正则化的防御 * 基于密码学的防御,例如差分隐私和同态加密。 * 安全多方计算。 2. **完整性风险:** 指模型可能被植入后门或被篡改。攻击方法包括: * 代码投毒:在训练代码中植入恶意代码 * 改变样本顺序:通过改变训练样本的顺序影响模型训练 * 模型权重篡改和模型结构修改。 针对完整性风险,防御方法包括: * 面向样本的检测方法(如STRIP) * 面向模型的检测方法(如元分析)。 3. **可用性风险:** 主要指模型可能受到对抗攻击导致误判。内容涉及到对抗攻击的基本概念,即通过对原始样本添加微小扰动生成对抗样本,使模型做出错误预测。 讨论了以下几个方面: * 攻击类型(扰动范围、攻击者知识、攻击目标、攻击频度) * 典型攻击方法(L-BFGS、FGSM、JSMA、Deepfool等) * 防御策略:面向数据的防御(特征挤压等)和面向模型的防御(对抗训练、防御蒸馏等)。 最后,文档鼓励大家关注人工智能的安全问题,并给出了相关代码链接。强调了人工智能是新时代的重要通用技术。
在线阅读 下载完整报告 | 4.48 MB | 32页
阅读和下载会消耗积分;登录、注册、邀请好友、上传报告可获取积分。
成为VIP会员可免费阅读和下载报告