論文の概要: FedGrad: Mitigating Backdoor Attacks in Federated Learning Through Local
Ultimate Gradients Inspection
- arxiv url: http://arxiv.org/abs/2305.00328v1
- Date: Sat, 29 Apr 2023 19:31:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 15:55:14.860937
- Title: FedGrad: Mitigating Backdoor Attacks in Federated Learning Through Local
Ultimate Gradients Inspection
- Title(参考訳): fedgrad: 局所的究極的勾配検査によるフェデレーション学習におけるバックドア攻撃の軽減
- Authors: Thuy Dung Nguyen, Anh Duy Nguyen, Kok-Seng Wong, Huy Hieu Pham, Thanh
Hung Nguyen, Phi Le Nguyen, Truong Thao Nguyen
- Abstract要約: フェデレートラーニング(FL)は、複数のクライアントが機密データを妥協することなくモデルをトレーニングすることを可能にする。
FLの分散的な性質は、特に訓練中のバックドア挿入において、敵の攻撃に敏感である。
我々は,最先端のバックドア攻撃に抵抗するFLに対するバックドア耐性防御であるFedGradを提案する。
- 参考スコア(独自算出の注目度): 3.3711670942444014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables multiple clients to train a model without
compromising sensitive data. The decentralized nature of FL makes it
susceptible to adversarial attacks, especially backdoor insertion during
training. Recently, the edge-case backdoor attack employing the tail of the
data distribution has been proposed as a powerful one, raising questions about
the shortfall in current defenses' robustness guarantees. Specifically, most
existing defenses cannot eliminate edge-case backdoor attacks or suffer from a
trade-off between backdoor-defending effectiveness and overall performance on
the primary task. To tackle this challenge, we propose FedGrad, a novel
backdoor-resistant defense for FL that is resistant to cutting-edge backdoor
attacks, including the edge-case attack, and performs effectively under
heterogeneous client data and a large number of compromised clients. FedGrad is
designed as a two-layer filtering mechanism that thoroughly analyzes the
ultimate layer's gradient to identify suspicious local updates and remove them
from the aggregation process. We evaluate FedGrad under different attack
scenarios and show that it significantly outperforms state-of-the-art defense
mechanisms. Notably, FedGrad can almost 100% correctly detect the malicious
participants, thus providing a significant reduction in the backdoor effect
(e.g., backdoor accuracy is less than 8%) while not reducing the main accuracy
on the primary task.
- Abstract(参考訳): フェデレートラーニング(FL)により、複数のクライアントが機密データを妥協することなくモデルをトレーニングできる。
FLの分散した性質は、特に訓練中のバックドア挿入において敵の攻撃を受けやすい。
近年,データ分布の尾部を利用したエッジケースバックドア攻撃が強力な攻撃として提案され,現状の防御の堅牢性保証の不足に関する疑問が提起されている。
特に、既存の防御の多くは、エッジケースバックドア攻撃を排除できないか、バックドア防御の有効性とプライマリタスクにおける全体的なパフォーマンスのトレードオフに苦しむ。
この課題に取り組むため,我々は,エッジケース攻撃を含む最先端バックドア攻撃に耐性を持ち,異種クライアントデータと多数の漏洩したクライアントにおいて効果的に実行する,新しいflバックドア防御手法であるfeedgradを提案する。
fedgradは、究極のレイヤの勾配を徹底的に分析し、疑わしいローカルアップデートを特定し、集約プロセスから削除する2層フィルタリングメカニズムとして設計されている。
我々は、異なる攻撃シナリオ下でFedGradを評価し、最先端の防御機構を著しく上回ることを示す。
特にfeedgradは、悪意のある参加者をほぼ100%正しく検出することができ、主要なタスクの精度を低下させることなく、バックドア効果(例えばバックドア精度が8%未満)を大幅に削減することができる。
関連論文リスト
- Adversarially Guided Stateful Defense Against Backdoor Attacks in Federated Deep Learning [23.469636829106317]
既存のディフェンスクラスタは、クライアントから更新を送信し、アグリゲーションに最適なクラスタを選択する。
現実的なFL設定では,SOTA(State-of-the-art Defenses)はFLのバックドア攻撃に対して良好に対処する。
本稿では,Deep Neural Networks (DNN) に対するバックドア攻撃に対するAdversarially Guided Stateful Defense (AGSD) を提案する。
論文 参考訳(メタデータ) (2024-10-15T02:45:19Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - Concealing Backdoor Model Updates in Federated Learning by Trigger-Optimized Data Poisoning [20.69655306650485]
Federated Learning(FL)は、参加者がプライベートデータを共有せずに、協力的にモデルをトレーニングできる分散型機械学習手法である。
プライバシーとスケーラビリティの利点にもかかわらず、FLはバックドア攻撃の影響を受けやすい。
本稿では,バックドアトリガの最適化によりバックドア目標を動的に構築する,FLのバックドア攻撃戦略であるDPOTを提案する。
論文 参考訳(メタデータ) (2024-05-10T02:44:25Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - Technical Report: Assisting Backdoor Federated Learning with Whole
Population Knowledge Alignment [4.87359365320076]
単発バックドア攻撃は、FLモデル収束時にメインタスクとバックドアサブタスクの両方で高い精度を達成する。
後続のバックドアアタックの予備段階を含む2段階のバックドアアタックを提案する。
予備段階から見れば、後から注入されたバックドアは、通常のモデル更新によってバックドア効果が希薄になりにくくなるため、効果が向上する。
論文 参考訳(メタデータ) (2022-07-25T16:38:31Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - BaFFLe: Backdoor detection via Feedback-based Federated Learning [3.6895394817068357]
フィードバックに基づくフェデレーション学習(BAFFLE)によるバックドア検出を提案する。
BAFFLEは,最先端のバックドア攻撃を100%,偽陽性率5%以下で確実に検出できることを示す。
論文 参考訳(メタデータ) (2020-11-04T07:44:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。