論文の概要: A Whole-Process Certifiably Robust Aggregation Method Against Backdoor Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2407.00719v1
- Date: Sun, 30 Jun 2024 15:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 01:47:18.293185
- Title: A Whole-Process Certifiably Robust Aggregation Method Against Backdoor Attacks in Federated Learning
- Title(参考訳): フェデレーション学習におけるバックドアアタックに対する全能的ロバストアグリゲーション法
- Authors: Anqi Zhou, Yezheng Liu, Yidong Chai, Hongyi Zhu, Xinyue Ge, Yuanchun Jiang, Meng Wang,
- Abstract要約: フェデレートラーニング(FL)は、金融、医療、サイバーセキュリティなど、さまざまな領域で広く採用されている。
FLは、悪意のあるアクターが訓練されたモデルにトリガーを挿入するバックドア攻撃による重大な脅威を受け続けている。
本稿では,バックドアアタックに対するロバスト性を向上するFLのための,新しいプロセス全体のロバストアグリゲーション(WPCRA)手法を提案する。
- 参考スコア(独自算出の注目度): 11.239604882889498
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) has garnered widespread adoption across various domains such as finance, healthcare, and cybersecurity. Nonetheless, FL remains under significant threat from backdoor attacks, wherein malicious actors insert triggers into trained models, enabling them to perform certain tasks while still meeting FL's primary objectives. In response, robust aggregation methods have been proposed, which can be divided into three types: ex-ante, ex-durante, and ex-post methods. Given the complementary nature of these methods, combining all three types is promising yet unexplored. Such a combination is non-trivial because it requires leveraging their advantages while overcoming their disadvantages. Our study proposes a novel whole-process certifiably robust aggregation (WPCRA) method for FL, which enhances robustness against backdoor attacks across three phases: ex-ante, ex-durante, and ex-post. Moreover, since the current geometric median estimation method fails to consider differences among clients, we propose a novel weighted geometric median estimation algorithm (WGME). This algorithm estimates the geometric median of model updates from clients based on each client's weight, further improving the robustness of WPCRA against backdoor attacks. We also theoretically prove that WPCRA offers improved certified robustness guarantees with a larger certified radius. We evaluate the advantages of our methods based on the task of loan status prediction. Comparison with baselines shows that our methods significantly improve FL's robustness against backdoor attacks. This study contributes to the literature with a novel WPCRA method and a novel WGME algorithm. Our code is available at https://github.com/brick-brick/WPCRAM.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、金融、医療、サイバーセキュリティなど、さまざまな領域で広く採用されている。
それでもFLは、悪意のあるアクターが訓練されたモデルにトリガーを挿入し、FLの主要な目的を満たしながら特定のタスクを実行できるようにするバックドア攻撃による重大な脅威にさらされている。
これに対し、ロバストアグリゲーション法が提案され、ex-ante、ex-durante、ex-postメソッドの3つのタイプに分けられる。
これらの手法の相補的な性質を考えると、これら3つの型を組み合わせることは期待できない。
このような組み合わせは、デメリットを克服しつつ、そのメリットを活用する必要があるため、簡単ではありません。
本研究は, FLにおいて, バックドア攻撃に対するロバスト性を, 元アンテ, 元デュランテ, 元ポストの3段階にわたって向上させる, プロセス全体のロバストアグリゲーション(WPCRA)法を提案する。
また、現在の幾何中央値推定法ではクライアント間の差を考慮できないため、新しい重み付き幾何中央値推定アルゴリズム(WGME)を提案する。
このアルゴリズムは,各クライアントの重みに基づくクライアントからのモデル更新の幾何的中央値を推定し,バックドア攻撃に対するWPCRAの堅牢性をさらに向上させる。
また、WPCRAは、より大きな認証半径で、信頼性の高いロバスト性を保証することを理論的に証明する。
ローン状況予測の課題に基づいて,提案手法の利点を評価する。
ベースラインと比較すると,本手法はバックドア攻撃に対するFLの堅牢性を大幅に改善することが示された。
本研究は,新しいWPCRA法と新しいWGMEアルゴリズムを用いて文献に寄与する。
私たちのコードはhttps://github.com/brick-brick/WPCRAMで利用可能です。
関連論文リスト
- Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - You Can Backdoor Personalized Federated Learning [18.91908598410108]
既存の研究は主に、一般的な連合学習シナリオにおけるバックドア攻撃と防御に焦点を当てている。
本稿では,2つの単純かつ効果的な戦略からなる2段階の攻撃手法であるBapFLを提案する。
論文 参考訳(メタデータ) (2023-07-29T12:25:04Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - Security-Preserving Federated Learning via Byzantine-Sensitive Triplet
Distance [10.658882342481542]
フェデレートラーニング(FL)は一般的に、敵のエッジデバイスからのビザンチン攻撃に対して脆弱である。
そこで我々は, ダミーコントラストアグリゲーションという, 効果的なビザンチン・ロバストFLフレームワークを提案する。
最新技術であるビザンチン-レジリエントアグリゲーション法と比較して,性能が向上した。
論文 参考訳(メタデータ) (2022-10-29T07:20:02Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Byzantine-Robust Online and Offline Distributed Reinforcement Learning [60.970950468309056]
本稿では,複数のエージェントが環境を探索し,その経験を中央サーバを通じて伝達する分散強化学習環境について考察する。
エージェントの$alpha$-fractionは敵対的であり、任意の偽情報を報告することができる。
我々は、これらの対立エージェントの存在下で、マルコフ決定プロセスの根底にある準最適政策を特定することを模索する。
論文 参考訳(メタデータ) (2022-06-01T00:44:53Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - On Provable Backdoor Defense in Collaborative Learning [35.22450536986004]
悪意のあるユーザは、モデルの収束を防ぐためにデータをアップロードしたり、隠れたバックドアを注入したりできる。
標準的なテストデータではモデルが正常に動作するため、バックドア攻撃は特に検出が難しいが、特定のバックドアキーによってトリガーされた場合、間違ったアウトプットが与えられる。
既存のサブセット集約メソッドを一般化する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-19T14:39:32Z) - BaFFLe: Backdoor detection via Feedback-based Federated Learning [3.6895394817068357]
フィードバックに基づくフェデレーション学習(BAFFLE)によるバックドア検出を提案する。
BAFFLEは,最先端のバックドア攻撃を100%,偽陽性率5%以下で確実に検出できることを示す。
論文 参考訳(メタデータ) (2020-11-04T07:44:51Z) - Robust Deep Reinforcement Learning through Adversarial Loss [74.20501663956604]
近年の研究では、深層強化学習剤は、エージェントの入力に対する小さな逆方向の摂動に弱いことが示されている。
敵攻撃に対する堅牢性を向上した強化学習エージェントを訓練するための原則的フレームワークであるRADIAL-RLを提案する。
論文 参考訳(メタデータ) (2020-08-05T07:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。