論文の概要: Backdoor Attack and Defense in Federated Generative Adversarial
Network-based Medical Image Synthesis
- arxiv url: http://arxiv.org/abs/2210.10886v1
- Date: Wed, 19 Oct 2022 21:03:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 13:22:50.632508
- Title: Backdoor Attack and Defense in Federated Generative Adversarial
Network-based Medical Image Synthesis
- Title(参考訳): フェデレーション・ジェネレーション・アドバーサリアン・ネットワークによる医療画像合成におけるバックドア攻撃と防御
- Authors: Ruinan Jin and Xiaoxiao Li
- Abstract要約: フェデレートラーニング(FL)は、分散データを使用して、生データをローカルに保持しながら、中央モデルをトレーニングする方法を提供する。
バックドア攻撃には弱いが、訓練データに毒を盛ることによる敵の攻撃である。
ほとんどのバックドア攻撃戦略は、分類モデルと集中型ドメインに焦点を当てている。
本稿では,FL設定におけるバックドア攻撃を効果的かつ効果的に防御するFedDetectを提案する。
- 参考スコア(独自算出の注目度): 15.41200827860072
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning-based image synthesis techniques have been applied in
healthcare research for generating medical images to support open research and
augment medical datasets. Training generative adversarial neural networks
(GANs) usually require large amounts of training data. Federated learning (FL)
provides a way of training a central model using distributed data while keeping
raw data locally. However, given that the FL server cannot access the raw data,
it is vulnerable to backdoor attacks, an adversarial by poisoning training
data. Most backdoor attack strategies focus on classification models and
centralized domains. It is still an open question if the existing backdoor
attacks can affect GAN training and, if so, how to defend against the attack in
the FL setting. In this work, we investigate the overlooked issue of backdoor
attacks in federated GANs (FedGANs). The success of this attack is subsequently
determined to be the result of some local discriminators overfitting the
poisoned data and corrupting the local GAN equilibrium, which then further
contaminates other clients when averaging the generator's parameters and yields
high generator loss. Therefore, we proposed FedDetect, an efficient and
effective way of defending against the backdoor attack in the FL setting, which
allows the server to detect the client's adversarial behavior based on their
losses and block the malicious clients. Our extensive experiments on two
medical datasets with different modalities demonstrate the backdoor attack on
FedGANs can result in synthetic images with low fidelity. After detecting and
suppressing the detected malicious clients using the proposed defense strategy,
we show that FedGANs can synthesize high-quality medical datasets (with labels)
for data augmentation to improve classification models' performance.
- Abstract(参考訳): 深層学習に基づく画像合成技術は、オープンな研究を支援するために医療画像を生成するために医療研究に応用されている。
GAN(generative adversarial Neural Network)のトレーニングは通常、大量のトレーニングデータを必要とする。
フェデレーション学習(fl)は、生データをローカルに保持しながら、分散データを使用して中央モデルをトレーニングする方法を提供する。
しかし、FLサーバが生データにアクセスできないことを考えると、訓練データに毒を盛ることによって、バックドア攻撃に弱い。
ほとんどのバックドア攻撃戦略は分類モデルと集中型ドメインに焦点を当てている。
既存のバックドア攻撃がGANトレーニングに影響を及ぼすのか、もしそうなら、FL設定での攻撃に対してどのように防御するかは、まだ明らかな疑問である。
本研究では,フェデレートされたGAN(FedGANs)におけるバックドア攻撃の問題点について検討する。
この攻撃の成功は、有毒なデータに過度に適合し、局所的なGAN平衡を悪化させた結果であると判断され、ジェネレータのパラメータを平均化する際に他のクライアントをさらに汚染し、高いジェネレータ損失をもたらす。
そこで我々はFedDetectを提案する。FL設定のバックドア攻撃に対して効果的かつ効果的な防御方法であり、サーバはクライアントの損失に基づいてクライアントの敵行動を検出し、悪意のあるクライアントをブロックすることができる。
異なるモダリティを持つ2つの医学データセットに対する広範な実験により、FedGANに対するバックドア攻撃は、忠実度が低い合成画像をもたらすことが示された。
提案した防衛戦略を用いて検出された悪意のあるクライアントを検出して抑制した後、FedGANはデータ拡張のための高品質な医療データセット(ラベル付き)を合成し、分類モデルの性能を向上させる。
関連論文リスト
- FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - FedDefender: Backdoor Attack Defense in Federated Learning [0.0]
Federated Learning(FL)は、プライバシを保存する分散機械学習技術である。
FLにおける標的毒攻撃に対する防御機構であるFedDefenderを提案する。
論文 参考訳(メタデータ) (2023-07-02T03:40:04Z) - DABS: Data-Agnostic Backdoor attack at the Server in Federated Learning [14.312593000209693]
フェデレートラーニング(FL)は、中央サーバの協調の下で、分散デバイスからローカルモデルを集約することで、グローバルモデルをトレーニングしようとする試みである。
多数の異種デバイスが存在するため、FLは様々な攻撃、特にステルスなバックドア攻撃に対して脆弱である。
我々は,サーバがグローバルモデルを直接変更して,FLシステムにバックドアを施すような,FLの新たなアタックモデル,すなわち,サーバにおけるData-Agnostic Backdoor attack(DABS)を提案する。
論文 参考訳(メタデータ) (2023-05-02T09:04:34Z) - FedGrad: Mitigating Backdoor Attacks in Federated Learning Through Local
Ultimate Gradients Inspection [3.3711670942444014]
フェデレートラーニング(FL)は、複数のクライアントが機密データを妥協することなくモデルをトレーニングすることを可能にする。
FLの分散的な性質は、特に訓練中のバックドア挿入において、敵の攻撃に敏感である。
我々は,最先端のバックドア攻撃に抵抗するFLに対するバックドア耐性防御であるFedGradを提案する。
論文 参考訳(メタデータ) (2023-04-29T19:31:44Z) - Backdoor Attack is A Devil in Federated GAN-based Medical Image
Synthesis [15.41200827860072]
本稿では, バックドア攻撃分類モデルにおいて, 識別器を一般的なデータ中毒戦略で扱うことにより, フェデレートされたGAN(FedGAN)を攻撃する方法を提案する。
グローバルな悪意検出と局所的な訓練規則化の2つの効果的な防衛戦略を提供する。
論文 参考訳(メタデータ) (2022-07-02T07:20:35Z) - Backdoor Attacks on Federated Learning with Lottery Ticket Hypothesis [49.38856542573576]
フェデレート学習におけるエッジデバイスは通常、データセンターのサーバに比べて計算と通信のリソースがはるかに限られている。
本研究は,ロタリー・ティケットモデルが元の密集モデルと同様にバックドア攻撃に対して等しく脆弱であることを実証的に実証する。
論文 参考訳(メタデータ) (2021-09-22T04:19:59Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。