論文の概要: Exploiting Defenses against GAN-Based Feature Inference Attacks in
Federated Learning
- arxiv url: http://arxiv.org/abs/2004.12571v2
- Date: Thu, 19 Aug 2021 09:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 06:07:29.392634
- Title: Exploiting Defenses against GAN-Based Feature Inference Attacks in
Federated Learning
- Title(参考訳): 連合学習におけるgan型特徴推論攻撃に対する防御の活用
- Authors: Xianglong Zhang and Xinjian Luo
- Abstract要約: 我々は、連合学習におけるGANベースの攻撃に対する防御を活用。
攻撃者が被害者のデータの実際の分布を学習するのを防ぐためのフレームワークであるAnti-GANを提案する。
- 参考スコア(独自算出の注目度): 0.76146285961466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a decentralized model training method, federated learning is designed to
integrate the isolated data islands and protect data privacy. Recent studies,
however, have demonstrated that the Generative Adversarial Network (GAN) based
attacks can be used in federated learning to learn the distribution of the
victim's private dataset and accordingly reconstruct human-distinguishable
images. In this paper, we exploit defenses against GAN-based attacks in
federated learning, and propose a framework, Anti-GAN, to prevent attackers
from learning the real distribution of the victim's data. The core idea of
Anti-GAN is to corrupt the visual features of the victim's private training
images, such that the images restored by the attacker are indistinguishable to
human eyes. Specifically, in Anti-GAN, the victim first projects the personal
dataset onto a GAN's generator, then mixes the fake images generated by the
generator with the real images to obtain the training dataset, which will be
fed into the federated model for training. We redesign the structure of the
victim's GAN to encourage it to learn the classification features (instead of
the visual features) of the real images. We further introduce an unsupervised
task to the GAN model for obfuscating the visual features of the generated
images. The experiments demonstrate that Anti-GAN can effectively prevent the
attacker from learning the distribution of the private images, meanwhile
causing little harm to the accuracy of the federated model.
- Abstract(参考訳): 分散モデルトレーニング方法として、フェデレーション学習は分離されたデータ島を統合し、データのプライバシを保護するように設計されている。
しかし,近年の研究では,GAN(Generative Adversarial Network)に基づく攻撃が,被害者のプライベートデータセットの分布を学習し,それに基づいて識別可能な画像の再構築に有効であることが示されている。
本稿では,連合学習におけるGANによる攻撃に対する防御を生かし,被害者の実際のデータを学習するのを防ぐためのフレームワークであるアンチGANを提案する。
反GANの基本的な考え方は、攻撃者が復元した画像が人間の目と区別できないように、被害者のプライベートトレーニングイメージの視覚的特徴を損なうことである。
具体的には、Anti-GANでは、被害者がまず個人データセットをGANのジェネレータに投影し、次にジェネレータが生成したフェイクイメージと実際のイメージを混ぜてトレーニングデータセットを取得し、トレーニング用にフェデレーションされたモデルに入力する。
我々は、被害者のGANの構造を再設計し、実際の画像の分類特徴(視覚的特徴ではなく)を学ぶことを奨励する。
さらに、生成した画像の視覚的特徴を難読化するための教師なしタスクをGANモデルに導入する。
実験は、攻撃者がプライベート画像の分布を学習するのを効果的に防ぎ、一方、フェデレーションモデルの精度にはほとんど害を及ぼさないことを実証する。
関連論文リスト
- PPIDSG: A Privacy-Preserving Image Distribution Sharing Scheme with GAN
in Federated Learning [2.0507547735926424]
分散学習(FL)は、分散クライアントでのプライバシー保護のための協調トレーニングを可能にするため、注目を集めている。
最近の研究によると、個人データを敵に公開するリスクは依然として残っている。
GAN(PPIDSG)を用いたプライバシー保護型画像配信方式を提案する。
論文 参考訳(メタデータ) (2023-12-16T08:32:29Z) - Black-Box Training Data Identification in GANs via Detector Networks [2.4554686192257424]
訓練されたGANへのアクセスと、基礎となる分布からの新鮮なサンプルが、攻撃者が与えられたポイントがGANのトレーニングデータのメンバーであるかどうかを効率的に識別できるかどうかを調査する。
これは、著作権のあるデータがGANのトレーニングに使用されたかどうかをユーザが判断したいという著作権に関する理由と、トレーニングセットのメンバシップを検出する能力がメンバシップ推論アタックとして知られているデータプライバシに関する理由の両方に興味深い。
ブラックボックス設定におけるGANに対するメンバーシップ推論攻撃のスイートを導入し、我々の攻撃を評価する。
論文 参考訳(メタデータ) (2023-10-18T15:53:20Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Pelta: Shielding Transformers to Mitigate Evasion Attacks in Federated
Learning [0.6445605125467573]
我々は、信頼されたハードウェアを活用する新しいシールド機構であるPeltaを紹介する。
我々は,ペルタをアートアンサンブルモデルを用いて評価し,自己注意勾配攻撃に対する効果を実証した。
論文 参考訳(メタデータ) (2023-08-08T16:22:44Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - Feature Unlearning for Pre-trained GANs and VAEs [5.4014463269111035]
我々は、事前訓練された画像生成モデル、GANとVAEから特徴学習を行う問題に取り組む。
我々は,事前学習した生成モデルから,顔画像のヘアスタイルなどの特定の特徴を解き放つことを目的としている。
論文 参考訳(メタデータ) (2023-03-10T04:49:01Z) - Backdoor Attack is A Devil in Federated GAN-based Medical Image
Synthesis [15.41200827860072]
本稿では, バックドア攻撃分類モデルにおいて, 識別器を一般的なデータ中毒戦略で扱うことにより, フェデレートされたGAN(FedGAN)を攻撃する方法を提案する。
グローバルな悪意検出と局所的な訓練規則化の2つの効果的な防衛戦略を提供する。
論文 参考訳(メタデータ) (2022-07-02T07:20:35Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。