論文の概要: Exploiting Defenses against GAN-Based Feature Inference Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2004.12571v3
- Date: Tue, 20 Aug 2024 14:11:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 21:10:37.026853
- Title: Exploiting Defenses against GAN-Based Feature Inference Attacks in Federated Learning
- Title(参考訳): フェデレートラーニングにおけるGANに基づく特徴推論攻撃に対する防犯活動
- Authors: Xinjian Luo, Xianglong Zhang,
- Abstract要約: フェデレートラーニング(FL)は、データプライバシを維持しながら、孤立したデータアイランドをマージすることを目的としている。
近年の研究では、GANベースの攻撃をFLで使用して、プライベートデータセットの分布を学習できることが示されている。
攻撃者が被害者のデータの実際の分布を学習するのを防ぐためのフレームワークであるAnti-GANを提案する。
- 参考スコア(独自算出の注目度): 3.376269351435396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a decentralized model training framework that aims to merge isolated data islands while maintaining data privacy. However, recent studies have revealed that Generative Adversarial Network (GAN) based attacks can be employed in FL to learn the distribution of private datasets and reconstruct recognizable images. In this paper, we exploit defenses against GAN-based attacks in FL and propose a framework, Anti-GAN, to prevent attackers from learning the real distribution of the victim's data. The core idea of Anti-GAN is to manipulate the visual features of private training images to make them indistinguishable to human eyes even restored by attackers. Specifically, Anti-GAN projects the private dataset onto a GAN's generator and combines the generated fake images with the actual images to create the training dataset, which is then used for federated model training. The experimental results demonstrate that Anti-GAN is effective in preventing attackers from learning the distribution of private images while causing minimal harm to the accuracy of the federated model.
- Abstract(参考訳): Federated Learning(FL)は、データプライバシを維持しながら、独立したデータアイランドをマージすることを目的とした、分散モデルトレーニングフレームワークである。
しかし、最近の研究により、GANベースの攻撃はFLでプライベートデータセットの分布を学習し、認識可能なイメージを再構築するために使用できることが明らかになった。
本稿では, FLにおけるGAN攻撃に対する防御効果を活用し, 攻撃者が実際のデータ配信を学ばないようにするためのフレームワークであるアンチGANを提案する。
反GANの基本的な考え方は、プライベートトレーニング画像の視覚的特徴を操作して、攻撃者によって復元された人間の目と区別できないようにすることである。
具体的には、Anti-GANはプライベートデータセットをGANのジェネレータに投影し、生成されたフェイクイメージと実際のイメージを組み合わせてトレーニングデータセットを生成し、フェデレートされたモデルトレーニングに使用される。
実験の結果,抗GANは,フェデレートされたモデルの精度に最小限のダメージを与えながら,攻撃者がプライベートイメージの分布を学習するのを防ぐのに有効であることが示された。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - GANcrop: A Contrastive Defense Against Backdoor Attacks in Federated Learning [1.9632700283749582]
本稿では,GANcrop という,協調学習におけるバックドア攻撃に対する防御機構について紹介する。
実験的には、特に非IIDシナリオにおいて、ガンクロップはバックドア攻撃に対して効果的に保護されていることが示されている。
論文 参考訳(メタデータ) (2024-05-31T09:33:16Z) - PPIDSG: A Privacy-Preserving Image Distribution Sharing Scheme with GAN
in Federated Learning [2.0507547735926424]
分散学習(FL)は、分散クライアントでのプライバシー保護のための協調トレーニングを可能にするため、注目を集めている。
最近の研究によると、個人データを敵に公開するリスクは依然として残っている。
GAN(PPIDSG)を用いたプライバシー保護型画像配信方式を提案する。
論文 参考訳(メタデータ) (2023-12-16T08:32:29Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Black-Box Training Data Identification in GANs via Detector Networks [2.4554686192257424]
訓練されたGANへのアクセスと、基礎となる分布からの新鮮なサンプルが、攻撃者が与えられたポイントがGANのトレーニングデータのメンバーであるかどうかを効率的に識別できるかどうかを調査する。
これは、著作権のあるデータがGANのトレーニングに使用されたかどうかをユーザが判断したいという著作権に関する理由と、トレーニングセットのメンバシップを検出する能力がメンバシップ推論アタックとして知られているデータプライバシに関する理由の両方に興味深い。
ブラックボックス設定におけるGANに対するメンバーシップ推論攻撃のスイートを導入し、我々の攻撃を評価する。
論文 参考訳(メタデータ) (2023-10-18T15:53:20Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Backdoor Attack and Defense in Federated Generative Adversarial
Network-based Medical Image Synthesis [15.41200827860072]
フェデレートラーニング(FL)は、分散データを使用して、生データをローカルに保持しながら、中央モデルをトレーニングする方法を提供する。
バックドア攻撃には弱いが、訓練データに毒を盛ることによる敵の攻撃である。
ほとんどのバックドア攻撃戦略は、分類モデルと集中型ドメインに焦点を当てている。
本稿では,FL設定におけるバックドア攻撃を効果的かつ効果的に防御するFedDetectを提案する。
論文 参考訳(メタデータ) (2022-10-19T21:03:34Z) - Backdoor Attack is A Devil in Federated GAN-based Medical Image
Synthesis [15.41200827860072]
本稿では, バックドア攻撃分類モデルにおいて, 識別器を一般的なデータ中毒戦略で扱うことにより, フェデレートされたGAN(FedGAN)を攻撃する方法を提案する。
グローバルな悪意検出と局所的な訓練規則化の2つの効果的な防衛戦略を提供する。
論文 参考訳(メタデータ) (2022-07-02T07:20:35Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。