論文の概要: Exploiting Defenses against GAN-Based Feature Inference Attacks in
Federated Learning
- arxiv url: http://arxiv.org/abs/2004.12571v2
- Date: Thu, 19 Aug 2021 09:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 06:07:29.392634
- Title: Exploiting Defenses against GAN-Based Feature Inference Attacks in
Federated Learning
- Title(参考訳): 連合学習におけるgan型特徴推論攻撃に対する防御の活用
- Authors: Xianglong Zhang and Xinjian Luo
- Abstract要約: 我々は、連合学習におけるGANベースの攻撃に対する防御を活用。
攻撃者が被害者のデータの実際の分布を学習するのを防ぐためのフレームワークであるAnti-GANを提案する。
- 参考スコア(独自算出の注目度): 0.76146285961466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a decentralized model training method, federated learning is designed to
integrate the isolated data islands and protect data privacy. Recent studies,
however, have demonstrated that the Generative Adversarial Network (GAN) based
attacks can be used in federated learning to learn the distribution of the
victim's private dataset and accordingly reconstruct human-distinguishable
images. In this paper, we exploit defenses against GAN-based attacks in
federated learning, and propose a framework, Anti-GAN, to prevent attackers
from learning the real distribution of the victim's data. The core idea of
Anti-GAN is to corrupt the visual features of the victim's private training
images, such that the images restored by the attacker are indistinguishable to
human eyes. Specifically, in Anti-GAN, the victim first projects the personal
dataset onto a GAN's generator, then mixes the fake images generated by the
generator with the real images to obtain the training dataset, which will be
fed into the federated model for training. We redesign the structure of the
victim's GAN to encourage it to learn the classification features (instead of
the visual features) of the real images. We further introduce an unsupervised
task to the GAN model for obfuscating the visual features of the generated
images. The experiments demonstrate that Anti-GAN can effectively prevent the
attacker from learning the distribution of the private images, meanwhile
causing little harm to the accuracy of the federated model.
- Abstract(参考訳): 分散モデルトレーニング方法として、フェデレーション学習は分離されたデータ島を統合し、データのプライバシを保護するように設計されている。
しかし,近年の研究では,GAN(Generative Adversarial Network)に基づく攻撃が,被害者のプライベートデータセットの分布を学習し,それに基づいて識別可能な画像の再構築に有効であることが示されている。
本稿では,連合学習におけるGANによる攻撃に対する防御を生かし,被害者の実際のデータを学習するのを防ぐためのフレームワークであるアンチGANを提案する。
反GANの基本的な考え方は、攻撃者が復元した画像が人間の目と区別できないように、被害者のプライベートトレーニングイメージの視覚的特徴を損なうことである。
具体的には、Anti-GANでは、被害者がまず個人データセットをGANのジェネレータに投影し、次にジェネレータが生成したフェイクイメージと実際のイメージを混ぜてトレーニングデータセットを取得し、トレーニング用にフェデレーションされたモデルに入力する。
我々は、被害者のGANの構造を再設計し、実際の画像の分類特徴(視覚的特徴ではなく)を学ぶことを奨励する。
さらに、生成した画像の視覚的特徴を難読化するための教師なしタスクをGANモデルに導入する。
実験は、攻撃者がプライベート画像の分布を学習するのを効果的に防ぎ、一方、フェデレーションモデルの精度にはほとんど害を及ぼさないことを実証する。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - GANcrop: A Contrastive Defense Against Backdoor Attacks in Federated Learning [1.9632700283749582]
本稿では,GANcrop という,協調学習におけるバックドア攻撃に対する防御機構について紹介する。
実験的には、特に非IIDシナリオにおいて、ガンクロップはバックドア攻撃に対して効果的に保護されていることが示されている。
論文 参考訳(メタデータ) (2024-05-31T09:33:16Z) - PPIDSG: A Privacy-Preserving Image Distribution Sharing Scheme with GAN
in Federated Learning [2.0507547735926424]
分散学習(FL)は、分散クライアントでのプライバシー保護のための協調トレーニングを可能にするため、注目を集めている。
最近の研究によると、個人データを敵に公開するリスクは依然として残っている。
GAN(PPIDSG)を用いたプライバシー保護型画像配信方式を提案する。
論文 参考訳(メタデータ) (2023-12-16T08:32:29Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Black-Box Training Data Identification in GANs via Detector Networks [2.4554686192257424]
訓練されたGANへのアクセスと、基礎となる分布からの新鮮なサンプルが、攻撃者が与えられたポイントがGANのトレーニングデータのメンバーであるかどうかを効率的に識別できるかどうかを調査する。
これは、著作権のあるデータがGANのトレーニングに使用されたかどうかをユーザが判断したいという著作権に関する理由と、トレーニングセットのメンバシップを検出する能力がメンバシップ推論アタックとして知られているデータプライバシに関する理由の両方に興味深い。
ブラックボックス設定におけるGANに対するメンバーシップ推論攻撃のスイートを導入し、我々の攻撃を評価する。
論文 参考訳(メタデータ) (2023-10-18T15:53:20Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Backdoor Attack and Defense in Federated Generative Adversarial
Network-based Medical Image Synthesis [15.41200827860072]
フェデレートラーニング(FL)は、分散データを使用して、生データをローカルに保持しながら、中央モデルをトレーニングする方法を提供する。
バックドア攻撃には弱いが、訓練データに毒を盛ることによる敵の攻撃である。
ほとんどのバックドア攻撃戦略は、分類モデルと集中型ドメインに焦点を当てている。
本稿では,FL設定におけるバックドア攻撃を効果的かつ効果的に防御するFedDetectを提案する。
論文 参考訳(メタデータ) (2022-10-19T21:03:34Z) - Backdoor Attack is A Devil in Federated GAN-based Medical Image
Synthesis [15.41200827860072]
本稿では, バックドア攻撃分類モデルにおいて, 識別器を一般的なデータ中毒戦略で扱うことにより, フェデレートされたGAN(FedGAN)を攻撃する方法を提案する。
グローバルな悪意検出と局所的な訓練規則化の2つの効果的な防衛戦略を提供する。
論文 参考訳(メタデータ) (2022-07-02T07:20:35Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。