論文の概要: Byzantines can also Learn from History: Fall of Centered Clipping in
Federated Learning
- arxiv url: http://arxiv.org/abs/2208.09894v1
- Date: Sun, 21 Aug 2022 14:39:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 12:19:05.032186
- Title: Byzantines can also Learn from History: Fall of Centered Clipping in
Federated Learning
- Title(参考訳): ビザンチンは歴史から学ぶこともできる:フェデレート学習における中心的クリッピングの崩壊
- Authors: Kerem Ozfatura and Emre Ozfatura and Alptekin Kupcu and Deniz Gunduz
- Abstract要約: Centered Clipping framework (ICML 2021) は、分散を減らすことに加えて、前回のイテレーションからの運動量項を、ビザンツ攻撃を中和するための基準点として使用できることを示した。
中心クリッピングフレームワークには特定の脆弱性があることを示し、これらの脆弱性に基づいて既存の攻撃を修正して、中心クリッピング防御を回避できることを示す。
- 参考スコア(独自算出の注目度): 4.740962650068886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing popularity of the federated learning framework due to its
success in a wide range of collaborative learning tasks also induces certain
security concerns regarding the learned model due to the possibility of
malicious clients participating in the learning process. Hence, the objective
is to neutralize the impact of the malicious participants and to ensure the
final model is trustable. One common observation regarding the Byzantine
attacks is that the higher the variance among the clients' models/updates, the
more space for attacks to be hidden. To this end, it has been recently shown
that by utilizing momentum, thus reducing the variance, it is possible to
weaken the strength of the known Byzantine attacks. The Centered Clipping
framework (ICML 2021) has further shown that, besides reducing the variance,
the momentum term from the previous iteration can be used as a reference point
to neutralize the Byzantine attacks and show impressive performance against
well-known attacks. However, in the scope of this work, we show that the
centered clipping framework has certain vulnerabilities, and existing attacks
can be revised based on these vulnerabilities to circumvent the centered
clipping defense. Hence, we introduce a strategy to design an attack to
circumvent the centered clipping framework and numerically illustrate its
effectiveness against centered clipping as well as other known defense
strategies by reducing test accuracy to 5-40 on best-case scenarios.
- Abstract(参考訳): 広範囲の協調学習タスクの成功により、連合学習フレームワークの人気が高まり、学習プロセスに参加する悪意のあるクライアントの可能性から、学習モデルに関する特定のセキュリティ上の懸念も引き起こされる。
したがって、悪意のある参加者の影響力を中和し、最終モデルが信頼できることを保証することが目的である。
ビザンチン攻撃に関する一般的な観察の1つは、クライアントのモデル/アップデートのばらつきが大きいほど、攻撃を隠蔽するスペースが大きくなることである。
この目的のために、近年、運動量を利用して分散を減少させることで、既知のビザンチン攻撃の強さを弱めることができることが示されている。
Centered Clipping framework (ICML 2021) はさらに、分散の低減に加えて、前回のイテレーションからのモーメント項が、ビザンツ攻撃を中和し、よく知られた攻撃に対して印象的なパフォーマンスを示す基準点として使用できることを示した。
しかし,本研究の範囲では,中心クリッピングフレームワークには特定の脆弱性があり,これらの脆弱性に基づいて既存の攻撃を修正して,中心クリッピング防御を回避できることが示されている。
そこで,本研究では,集中型クリッピングフレームワークを回避し,テスト精度をベストケースシナリオで5~40に下げることにより,中心型クリッピングと他の既知の防御戦略の有効性を数値的に説明するための攻撃設計手法を提案する。
関連論文リスト
- Byzantine-Robust Federated Learning: An Overview With Focus on Developing Sybil-based Attacks to Backdoor Augmented Secure Aggregation Protocols [0.0]
フェデレートラーニング(FL)パラダイムは、多数のクライアントがプライベートデータ上で機械学習モデルを協調的にトレーニングすることを可能にする。
従来のFLスキームは、悪意のあるバックドアを注入することによってモデルのパフォーマンスを損なおうとするビザンティン攻撃に弱いままである。
本稿では,既存の手法やフレームワークの総括的かつ更新された分類法について,フェデレートラーニングプロトコルのロバストネスの強みと弱みを詳細に分析し,詳細に分析する前に提案する。
我々は,RoFLの脆弱性を利用したSybilベースの2つの新しい攻撃を提案する。
論文 参考訳(メタデータ) (2024-10-30T04:20:22Z) - Understanding Byzantine Robustness in Federated Learning with A Black-box Server [47.98788470469994]
フェデレートラーニング(FL)は、一部の参加者が学習モデルの収束を損なう傾向にあるビザンティン攻撃に対して脆弱になる。
以前の研究では、様々なタイプのビザンツ人攻撃に対して、参加者からの更新を集約するために堅牢なルールを適用することを提案した。
実際には、FLシステムにはブラックボックスサーバが組み込まれており、採用されているアグリゲーションルールは参加者にアクセスできないため、ビザンティン攻撃を自然に防御したり弱めたりすることができる。
論文 参考訳(メタデータ) (2024-08-12T10:18:24Z) - Privacy-Preserving Aggregation for Decentralized Learning with Byzantine-Robustness [5.735144760031169]
Byzantineクライアントは、任意のモデル更新を他のクライアントにブロードキャストすることで、学習プロセスを意図的に破壊する。
本稿では,ビザンチンの脅威に対するDLのセキュリティとプライバシを高めるために設計された,新しいDLプロトコルであるSecureDLを紹介する。
実験の結果,悪意者による攻撃においてもSecureDLは有効であることがわかった。
論文 参考訳(メタデータ) (2024-04-27T18:17:36Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Byzantine-Robust Federated Learning with Variance Reduction and
Differential Privacy [6.343100139647636]
フェデレートラーニング(FL)は、モデルトレーニング中にデータのプライバシを保存するように設計されている。
FLはプライバシー攻撃やビザンツ攻撃に弱い。
本稿では,厳格なプライバシを保証するとともに,ビザンチン攻撃に対するシステムの堅牢性を同時に向上する新しいFLスキームを提案する。
論文 参考訳(メタデータ) (2023-09-07T01:39:02Z) - An Experimental Study of Byzantine-Robust Aggregation Schemes in
Federated Learning [4.627944480085717]
ビザンチン・ロバスト・フェデレーション・ラーニング(Byzantine-robust Federated Learning)は、訓練過程におけるビザンチンの障害を軽減することを目的としている。
ビザンツのクライアントからの悪意のあるアップデートを防御するために、いくつかの堅牢なアグリゲーションスキームが提案されている。
連邦学習における2つの一般的なアルゴリズムを用いて, 異なる攻撃下でのビザンチン・ロバスト・アグリゲーション方式の実験的検討を行った。
論文 参考訳(メタデータ) (2023-02-14T16:36:38Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Learning from History for Byzantine Robust Optimization [52.68913869776858]
分散学習の重要性から,ビザンチンの堅牢性が近年注目されている。
既存のロバストアグリゲーションルールの多くは、ビザンチンの攻撃者がいなくても収束しない可能性がある。
論文 参考訳(メタデータ) (2020-12-18T16:22:32Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z) - Federated Variance-Reduced Stochastic Gradient Descent with Robustness
to Byzantine Attacks [74.36161581953658]
本稿では、悪質なビザンツ攻撃が存在する場合のネットワーク上での学習のための分散有限サム最適化について論じる。
このような攻撃に対処するため、これまでのほとんどのレジリエントなアプローチは、勾配降下(SGD)と異なる頑健な集約ルールを組み合わせている。
本研究は,ネットワーク上の有限サム最適化を含むタスクを学習するための,ビザンチン攻撃耐性分散(Byrd-)SAGAアプローチを提案する。
論文 参考訳(メタデータ) (2019-12-29T19:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。