論文の概要: CrowdGuard: Federated Backdoor Detection in Federated Learning
- arxiv url: http://arxiv.org/abs/2210.07714v3
- Date: Tue, 22 Aug 2023 10:26:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 15:06:23.997873
- Title: CrowdGuard: Federated Backdoor Detection in Federated Learning
- Title(参考訳): CrowdGuard: フェデレーションラーニングにおけるフェデレーションバックドア検出
- Authors: Phillip Rieger (1), Torsten Krau{\ss} (2), Markus Miettinen (1),
Alexandra Dmitrienko (2), Ahmad-Reza Sadeghi (1) ((1) Technical University
Darmstadt, (2) University of W\"urzburg)
- Abstract要約: 本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
- 参考スコア(独自算出の注目度): 39.58317527488534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a promising approach enabling multiple clients to
train Deep Neural Networks (DNNs) collaboratively without sharing their local
training data. However, FL is susceptible to backdoor (or targeted poisoning)
attacks. These attacks are initiated by malicious clients who seek to
compromise the learning process by introducing specific behaviors into the
learned model that can be triggered by carefully crafted inputs. Existing FL
safeguards have various limitations: They are restricted to specific data
distributions or reduce the global model accuracy due to excluding benign
models or adding noise, are vulnerable to adaptive defense-aware adversaries,
or require the server to access local models, allowing data inference attacks.
This paper presents a novel defense mechanism, CrowdGuard, that effectively
mitigates backdoor attacks in FL and overcomes the deficiencies of existing
techniques. It leverages clients' feedback on individual models, analyzes the
behavior of neurons in hidden layers, and eliminates poisoned models through an
iterative pruning scheme. CrowdGuard employs a server-located stacked
clustering scheme to enhance its resilience to rogue client feedback. The
evaluation results demonstrate that CrowdGuard achieves a 100%
True-Positive-Rate and True-Negative-Rate across various scenarios, including
IID and non-IID data distributions. Additionally, CrowdGuard withstands
adaptive adversaries while preserving the original performance of protected
models. To ensure confidentiality, CrowdGuard uses a secure and
privacy-preserving architecture leveraging Trusted Execution Environments
(TEEs) on both client and server sides.
- Abstract(参考訳): Federated Learning(FL)は、複数のクライアントがローカルトレーニングデータを共有することなく、ディープニューラルネットワーク(DNN)を協調的にトレーニングできる、有望なアプローチである。
しかし、FLはバックドア(もしくは標的の毒殺)の攻撃を受けやすい。
これらの攻撃は、注意深い入力によって引き起こされる学習モデルに特定の行動を導入することで学習プロセスを妥協しようとする悪意のあるクライアントによって開始される。
既存のFLセーフガードには、さまざまな制限がある: それらは、特定のデータ分布に限定されるか、良質なモデルを除外したり、ノイズを追加したりすることで、グローバルモデル精度を低下させる。
本稿では,FLにおけるバックドア攻撃を効果的に軽減し,既存の手法の欠陥を克服する新しい防御機構であるCrowdGuardを提案する。
個々のモデルに対するクライアントのフィードバックを活用し、隠れた層におけるニューロンの挙動を分析し、反復的な刈り取りによって有毒なモデルを排除する。
CrowdGuardでは、サーバロケーションのスタッククラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価の結果、crowdguardは、iidおよび非iidデータ分布を含む様々なシナリオで100%真正率および真負率を達成した。
さらにcrowdguardは、保護されたモデルのオリジナルのパフォーマンスを維持しながら、適応的な敵に立ち向かう。
機密性を確保するため、CrowdGuardはクライアントとサーバの両方でTrusted Execution Environments(TEEs)を活用するセキュアでプライバシ保護アーキテクチャを使用している。
関連論文リスト
- Concealing Backdoor Model Updates in Federated Learning by Trigger-Optimized Data Poisoning [20.69655306650485]
Federated Learning(FL)は、参加者がプライベートデータを共有せずに、協力的にモデルをトレーニングできる分散型機械学習手法である。
プライバシーとスケーラビリティの利点にもかかわらず、FLはバックドア攻撃の影響を受けやすい。
本稿では,バックドアトリガの最適化によりバックドア目標を動的に構築する,FLのバックドア攻撃戦略であるDPOTを提案する。
論文 参考訳(メタデータ) (2024-05-10T02:44:25Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - FLGuard: Byzantine-Robust Federated Learning via Ensemble of Contrastive
Models [2.7539214125526534]
フェデレートラーニング(FL)は、多くのクライアントとグローバルモデルのトレーニングで活躍する。
近年の研究では、世界モデルの精度に壊滅的な損失をもたらす中毒攻撃が提案されている。
本稿では、悪意のあるクライアントを検出し、悪意のあるローカル更新を破棄する新しいバイザンチン・ロバストFL法FLGuardを提案する。
論文 参考訳(メタデータ) (2024-03-05T10:36:27Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - FedDefender: Backdoor Attack Defense in Federated Learning [0.0]
Federated Learning(FL)は、プライバシを保存する分散機械学習技術である。
FLにおける標的毒攻撃に対する防御機構であるFedDefenderを提案する。
論文 参考訳(メタデータ) (2023-07-02T03:40:04Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Backdoor Attacks in Peer-to-Peer Federated Learning [11.235386862864397]
Peer-to-Peer Federated Learning (P2PFL)は、プライバシと信頼性の両面でアドバンテージを提供する。
本稿では,P2PFLに対する新たなバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2023-01-23T21:49:28Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。