論文の概要: Backdoor Attack and Defense in Federated Generative Adversarial
Network-based Medical Image Synthesis
- arxiv url: http://arxiv.org/abs/2210.10886v1
- Date: Wed, 19 Oct 2022 21:03:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 13:22:50.632508
- Title: Backdoor Attack and Defense in Federated Generative Adversarial
Network-based Medical Image Synthesis
- Title(参考訳): フェデレーション・ジェネレーション・アドバーサリアン・ネットワークによる医療画像合成におけるバックドア攻撃と防御
- Authors: Ruinan Jin and Xiaoxiao Li
- Abstract要約: フェデレートラーニング(FL)は、分散データを使用して、生データをローカルに保持しながら、中央モデルをトレーニングする方法を提供する。
バックドア攻撃には弱いが、訓練データに毒を盛ることによる敵の攻撃である。
ほとんどのバックドア攻撃戦略は、分類モデルと集中型ドメインに焦点を当てている。
本稿では,FL設定におけるバックドア攻撃を効果的かつ効果的に防御するFedDetectを提案する。
- 参考スコア(独自算出の注目度): 15.41200827860072
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning-based image synthesis techniques have been applied in
healthcare research for generating medical images to support open research and
augment medical datasets. Training generative adversarial neural networks
(GANs) usually require large amounts of training data. Federated learning (FL)
provides a way of training a central model using distributed data while keeping
raw data locally. However, given that the FL server cannot access the raw data,
it is vulnerable to backdoor attacks, an adversarial by poisoning training
data. Most backdoor attack strategies focus on classification models and
centralized domains. It is still an open question if the existing backdoor
attacks can affect GAN training and, if so, how to defend against the attack in
the FL setting. In this work, we investigate the overlooked issue of backdoor
attacks in federated GANs (FedGANs). The success of this attack is subsequently
determined to be the result of some local discriminators overfitting the
poisoned data and corrupting the local GAN equilibrium, which then further
contaminates other clients when averaging the generator's parameters and yields
high generator loss. Therefore, we proposed FedDetect, an efficient and
effective way of defending against the backdoor attack in the FL setting, which
allows the server to detect the client's adversarial behavior based on their
losses and block the malicious clients. Our extensive experiments on two
medical datasets with different modalities demonstrate the backdoor attack on
FedGANs can result in synthetic images with low fidelity. After detecting and
suppressing the detected malicious clients using the proposed defense strategy,
we show that FedGANs can synthesize high-quality medical datasets (with labels)
for data augmentation to improve classification models' performance.
- Abstract(参考訳): 深層学習に基づく画像合成技術は、オープンな研究を支援するために医療画像を生成するために医療研究に応用されている。
GAN(generative adversarial Neural Network)のトレーニングは通常、大量のトレーニングデータを必要とする。
フェデレーション学習(fl)は、生データをローカルに保持しながら、分散データを使用して中央モデルをトレーニングする方法を提供する。
しかし、FLサーバが生データにアクセスできないことを考えると、訓練データに毒を盛ることによって、バックドア攻撃に弱い。
ほとんどのバックドア攻撃戦略は分類モデルと集中型ドメインに焦点を当てている。
既存のバックドア攻撃がGANトレーニングに影響を及ぼすのか、もしそうなら、FL設定での攻撃に対してどのように防御するかは、まだ明らかな疑問である。
本研究では,フェデレートされたGAN(FedGANs)におけるバックドア攻撃の問題点について検討する。
この攻撃の成功は、有毒なデータに過度に適合し、局所的なGAN平衡を悪化させた結果であると判断され、ジェネレータのパラメータを平均化する際に他のクライアントをさらに汚染し、高いジェネレータ損失をもたらす。
そこで我々はFedDetectを提案する。FL設定のバックドア攻撃に対して効果的かつ効果的な防御方法であり、サーバはクライアントの損失に基づいてクライアントの敵行動を検出し、悪意のあるクライアントをブロックすることができる。
異なるモダリティを持つ2つの医学データセットに対する広範な実験により、FedGANに対するバックドア攻撃は、忠実度が低い合成画像をもたらすことが示された。
提案した防衛戦略を用いて検出された悪意のあるクライアントを検出して抑制した後、FedGANはデータ拡張のための高品質な医療データセット(ラベル付き)を合成し、分類モデルの性能を向上させる。
関連論文リスト
- Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - Venomancer: Towards Imperceptible and Target-on-Demand Backdoor Attacks in Federated Learning [16.04315589280155]
本稿では,効果的なバックドア攻撃であるVenomancerを提案する。
この方法は、Norm Clipping、Wak DP、Krum、Multi-Krum、RLR、FedRAD、Deepsight、RFLBATといった最先端の防御に対して堅牢である。
論文 参考訳(メタデータ) (2024-07-03T14:22:51Z) - Concealing Backdoor Model Updates in Federated Learning by Trigger-Optimized Data Poisoning [20.69655306650485]
Federated Learning(FL)は、参加者がプライベートデータを共有せずに、協力的にモデルをトレーニングできる分散型機械学習手法である。
プライバシーとスケーラビリティの利点にもかかわらず、FLはバックドア攻撃の影響を受けやすい。
本稿では,バックドアトリガの最適化によりバックドア目標を動的に構築する,FLのバックドア攻撃戦略であるDPOTを提案する。
論文 参考訳(メタデータ) (2024-05-10T02:44:25Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - FedDefender: Backdoor Attack Defense in Federated Learning [0.0]
Federated Learning(FL)は、プライバシを保存する分散機械学習技術である。
FLにおける標的毒攻撃に対する防御機構であるFedDefenderを提案する。
論文 参考訳(メタデータ) (2023-07-02T03:40:04Z) - DABS: Data-Agnostic Backdoor attack at the Server in Federated Learning [14.312593000209693]
フェデレートラーニング(FL)は、中央サーバの協調の下で、分散デバイスからローカルモデルを集約することで、グローバルモデルをトレーニングしようとする試みである。
多数の異種デバイスが存在するため、FLは様々な攻撃、特にステルスなバックドア攻撃に対して脆弱である。
我々は,サーバがグローバルモデルを直接変更して,FLシステムにバックドアを施すような,FLの新たなアタックモデル,すなわち,サーバにおけるData-Agnostic Backdoor attack(DABS)を提案する。
論文 参考訳(メタデータ) (2023-05-02T09:04:34Z) - Backdoor Attack is A Devil in Federated GAN-based Medical Image
Synthesis [15.41200827860072]
本稿では, バックドア攻撃分類モデルにおいて, 識別器を一般的なデータ中毒戦略で扱うことにより, フェデレートされたGAN(FedGAN)を攻撃する方法を提案する。
グローバルな悪意検出と局所的な訓練規則化の2つの効果的な防衛戦略を提供する。
論文 参考訳(メタデータ) (2022-07-02T07:20:35Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。