論文の概要: Nosy Layers, Noisy Fixes: Tackling DRAs in Federated Learning Systems using Explainable AI
- arxiv url: http://arxiv.org/abs/2505.10942v1
- Date: Fri, 16 May 2025 07:28:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.275634
- Title: Nosy Layers, Noisy Fixes: Tackling DRAs in Federated Learning Systems using Explainable AI
- Title(参考訳): Nosy Layers, Noisy Fixes: 説明可能なAIを用いたフェデレーション学習システムにおけるDRA処理
- Authors: Meghali Nandi, Arash Shaghaghi, Nazatul Haque Sultan, Gustavo Batista, Raymond K. Zhao, Sanjay Jha,
- Abstract要約: フェデレートラーニング(FL)は、協調モデルトレーニングの強力なパラダイムとして登場した。
データレコンストラクション攻撃(DRA)に弱い。
DRArmorは、DRAのターゲット検出と緩和戦略とExplainable AIを統合した、新しい防御機構である。
- 参考スコア(独自算出の注目度): 4.6383368787236385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) has emerged as a powerful paradigm for collaborative model training while keeping client data decentralized and private. However, it is vulnerable to Data Reconstruction Attacks (DRA) such as "LoKI" and "Robbing the Fed", where malicious models sent from the server to the client can reconstruct sensitive user data. To counter this, we introduce DRArmor, a novel defense mechanism that integrates Explainable AI with targeted detection and mitigation strategies for DRA. Unlike existing defenses that focus on the entire model, DRArmor identifies and addresses the root cause (i.e., malicious layers within the model that send gradients with malicious intent) by analyzing their contribution to the output and detecting inconsistencies in gradient values. Once these malicious layers are identified, DRArmor applies defense techniques such as noise injection, pixelation, and pruning to these layers rather than the whole model, minimizing the attack surface and preserving client data privacy. We evaluate DRArmor's performance against the advanced LoKI attack across diverse datasets, including MNIST, CIFAR-10, CIFAR-100, and ImageNet, in a 200-client FL setup. Our results demonstrate DRArmor's effectiveness in mitigating data leakage, achieving high True Positive and True Negative Rates of 0.910 and 0.890, respectively. Additionally, DRArmor maintains an average accuracy of 87%, effectively protecting client privacy without compromising model performance. Compared to existing defense mechanisms, DRArmor reduces the data leakage rate by 62.5% with datasets containing 500 samples per client.
- Abstract(参考訳): Federated Learning(FL)は、クライアントデータを分散化してプライベートにしながら、協調的なモデルトレーニングのための強力なパラダイムとして登場した。
しかし、"LoKI"や"Robbing the Fed"のようなデータ再構成攻撃(DRA)に対して脆弱であり、サーバからクライアントに送信された悪意のあるモデルによって、機密性の高いユーザデータを再構築することができる。
これに対応するために、DRAのターゲット検出と緩和戦略とExplainable AIを統合した新しい防衛機構DRArmorを紹介する。
DRArmorは、モデル全体に焦点を当てた既存のディフェンスとは異なり、出力へのコントリビューションを分析し、勾配値の不整合を検出することによって、根本原因(すなわち、悪意のある意図で勾配を送信するモデル内の悪意のあるレイヤ)を特定し、対処する。
これらの悪意のあるレイヤが特定されると、DRArmorは、モデル全体よりもノイズ注入、ピクセル化、プルーニングといった防御技術を適用し、攻撃面を最小化し、クライアントデータのプライバシを保存する。
DRArmorがMNIST, CIFAR-10, CIFAR-100, ImageNetなど多種多様なデータセットにまたがるロキ攻撃に対して, 200サイクルのFL設定でDRArmorの性能を評価する。
本研究はDRArmorがデータ漏洩低減に有効であることを示し, それぞれ0.910, 0.890の正負の正負の値を得た。
さらに、DRArmorの平均精度は87%であり、モデルパフォーマンスを損なうことなく、クライアントのプライバシを効果的に保護している。
既存の防御機構と比較して、DRArmorはクライアント毎の500のサンプルを含むデータセットを使用して、データ漏洩率を62.5%削減する。
関連論文リスト
- Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - FedDefender: Backdoor Attack Defense in Federated Learning [0.0]
Federated Learning(FL)は、プライバシを保存する分散機械学習技術である。
FLにおける標的毒攻撃に対する防御機構であるFedDefenderを提案する。
論文 参考訳(メタデータ) (2023-07-02T03:40:04Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - A Data-Driven Defense against Edge-case Model Poisoning Attacks on Federated Learning [13.89043799280729]
本稿では,フェデレートラーニングシステムにおけるモデル中毒に対する効果的な防御法を提案する。
DataDefenseは、防衛データセットの各例を毒または清潔とマークする有毒データ検出モデルを学ぶ。
標準的な攻撃設定では攻撃成功率を少なくとも40%、いくつかの設定では80%以上削減することができる。
論文 参考訳(メタデータ) (2023-05-03T10:20:26Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。