论文名称 | Detecting and mitigating poisoning attacks in federated learning using generative adversarial networks |
---|---|
作者 | Ying Zhao, Junjun Chen, Jiale Zhang, Di Wu, M. Blumenstein, Shui Yu |
来源 | Concurrency and Computation 2020 |
领域 | Machine Learning - Federal learning - Security – Targeted & label-flipping poisoning attack |
问题 | 已有的基于服务器辅助验证集的防御算法,如果验证集中不包含投毒攻击目标类别的数据,就不能用于识别投毒攻击 |
方法 | 使用生成对抗网络生成审计数据,通过审计数据来评估客户端模型的准确性,从而去除攻击者 |
阅读记录
总结
针对标签翻转攻击:
- 恶意客户端模型会对特定的输入样本进行错误的分类,并且使用缩放攻击后恶意模型的准确性将变得更低,因此可以通过审计客户端模型的准确性来进行防御。但是,如果辅助数据集中不包含发起攻击的目标样本,则无法体现恶意模型的恶意性,无法用于审计。