READ-2334 Detecting and mitigating poisoning attacks in federated learning using generative adversar

论文名称 Detecting and mitigating poisoning attacks in federated learning using generative adversarial networks
作者 Ying Zhao, Junjun Chen, Jiale Zhang, Di Wu, M. Blumenstein, Shui Yu
来源 Concurrency and Computation 2020
领域 Machine Learning - Federal learning - Security – Targeted & label-flipping poisoning attack
问题 已有的基于服务器辅助验证集的防御算法,如果验证集中不包含投毒攻击目标类别的数据,就不能用于识别投毒攻击
方法 使用生成对抗网络生成审计数据,通过审计数据来评估客户端模型的准确性,从而去除攻击者

阅读记录

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


总结

针对标签翻转攻击:

  • 恶意客户端模型会对特定的输入样本进行错误的分类,并且使用缩放攻击后恶意模型的准确性将变得更低,因此可以通过审计客户端模型的准确性来进行防御。但是,如果辅助数据集中不包含发起攻击的目标样本,则无法体现恶意模型的恶意性,无法用于审计。