論文の概要: Byzantines can also Learn from History: Fall of Centered Clipping in
Federated Learning
- arxiv url: http://arxiv.org/abs/2208.09894v2
- Date: Sun, 30 Apr 2023 08:40:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 19:49:30.104186
- Title: Byzantines can also Learn from History: Fall of Centered Clipping in
Federated Learning
- Title(参考訳): ビザンチンは歴史から学ぶこともできる:フェデレート学習における中心的クリッピングの崩壊
- Authors: Kerem Ozfatura and Emre Ozfatura and Alptekin Kupcu and Deniz Gunduz
- Abstract要約: ビザンティン攻撃は、学習プロセスに参加する悪意のあるクライアントの可能性を指す。
クライアントのモデル/アップデート間のばらつきが高くなればなるほど、ビザンツの攻撃が隠される余地が大きくなることが観察されている。
本研究では,CCフレームワークの脆弱性を最初に公開し,その防御を回避できる新たな攻撃戦略を導入する。
- 参考スコア(独自算出の注目度): 4.740962650068886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing popularity of the federated learning (FL) framework due to its
success in a wide range of collaborative learning tasks also induces certain
security concerns. Among many vulnerabilities, the risk of Byzantine attacks is
of particular concern, which refers to the possibility of malicious clients
participating in the learning process. Hence, a crucial objective in FL is to
neutralize the potential impact of Byzantine attacks, and to ensure that the
final model is trustable. It has been observed that the higher the variance
among the clients' models/updates, the more space there is for Byzantine
attacks to be hidden. As a consequence, by utilizing momentum, and thus,
reducing the variance, it is possible to weaken the strength of known Byzantine
attacks. The centered clipping (CC) framework has further shown that, the
momentum term from the previous iteration, besides reducing the variance, can
be used as a reference point to neutralize Byzantine attacks better. In this
work, we first expose vulnerabilities of CC framework, and introduce a novel
attack strategy that can circumvent its defences and other robust aggregators
by reducing test accuracy up to %33 on best-case scenarios in image
classification tasks. Then, we propose a new robust and fast defence mechanism
to prevent the proposed attack and other existing Byzantine attacks.
- Abstract(参考訳): 幅広い協調学習タスクの成功により、フェデレーション学習(fl)フレームワークの人気が高まり、特定のセキュリティ上の懸念も引き起こされる。
多くの脆弱性のうち、ビザンチン攻撃のリスクは特に懸念されており、これは学習プロセスに参加している悪意のあるクライアントの可能性を指す。
したがって、flの重要な目的はビザンチン攻撃の潜在的な影響を無力化し、最終的なモデルが信頼できることを保証することである。
クライアントのモデル/アップデート間のばらつきが高くなればなるほど、ビザンツ攻撃が隠される余地が大きくなることが観察されている。
その結果、運動量を利用して分散を減少させることで、既知のビザンチン攻撃の強さを弱めることができる。
中心的クリッピング(CC)フレームワークはさらに、前回の反復のモーメント項は、ばらつきを減らすことに加えて、ビザンティン攻撃をより中和するための基準点として使用できることを示した。
本研究では,ccフレームワークの脆弱性を最初に公開し,画像分類タスクにおける最善のシナリオにおいて,テスト精度を最大%33まで低減することにより,その防御やロバストアグリゲータを回避できる新たな攻撃戦略を導入する。
そこで我々は,提案する攻撃や既存のビザンツ攻撃を防ぐために,より堅牢で高速な防御機構を提案する。
関連論文リスト
- Byzantine-Robust Federated Learning: An Overview With Focus on Developing Sybil-based Attacks to Backdoor Augmented Secure Aggregation Protocols [0.0]
フェデレートラーニング(FL)パラダイムは、多数のクライアントがプライベートデータ上で機械学習モデルを協調的にトレーニングすることを可能にする。
従来のFLスキームは、悪意のあるバックドアを注入することによってモデルのパフォーマンスを損なおうとするビザンティン攻撃に弱いままである。
本稿では,既存の手法やフレームワークの総括的かつ更新された分類法について,フェデレートラーニングプロトコルのロバストネスの強みと弱みを詳細に分析し,詳細に分析する前に提案する。
我々は,RoFLの脆弱性を利用したSybilベースの2つの新しい攻撃を提案する。
論文 参考訳(メタデータ) (2024-10-30T04:20:22Z) - Understanding Byzantine Robustness in Federated Learning with A Black-box Server [47.98788470469994]
フェデレートラーニング(FL)は、一部の参加者が学習モデルの収束を損なう傾向にあるビザンティン攻撃に対して脆弱になる。
以前の研究では、様々なタイプのビザンツ人攻撃に対して、参加者からの更新を集約するために堅牢なルールを適用することを提案した。
実際には、FLシステムにはブラックボックスサーバが組み込まれており、採用されているアグリゲーションルールは参加者にアクセスできないため、ビザンティン攻撃を自然に防御したり弱めたりすることができる。
論文 参考訳(メタデータ) (2024-08-12T10:18:24Z) - Privacy-Preserving Aggregation for Decentralized Learning with Byzantine-Robustness [5.735144760031169]
Byzantineクライアントは、任意のモデル更新を他のクライアントにブロードキャストすることで、学習プロセスを意図的に破壊する。
本稿では,ビザンチンの脅威に対するDLのセキュリティとプライバシを高めるために設計された,新しいDLプロトコルであるSecureDLを紹介する。
実験の結果,悪意者による攻撃においてもSecureDLは有効であることがわかった。
論文 参考訳(メタデータ) (2024-04-27T18:17:36Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Byzantine-Robust Federated Learning with Variance Reduction and
Differential Privacy [6.343100139647636]
フェデレートラーニング(FL)は、モデルトレーニング中にデータのプライバシを保存するように設計されている。
FLはプライバシー攻撃やビザンツ攻撃に弱い。
本稿では,厳格なプライバシを保証するとともに,ビザンチン攻撃に対するシステムの堅牢性を同時に向上する新しいFLスキームを提案する。
論文 参考訳(メタデータ) (2023-09-07T01:39:02Z) - An Experimental Study of Byzantine-Robust Aggregation Schemes in
Federated Learning [4.627944480085717]
ビザンチン・ロバスト・フェデレーション・ラーニング(Byzantine-robust Federated Learning)は、訓練過程におけるビザンチンの障害を軽減することを目的としている。
ビザンツのクライアントからの悪意のあるアップデートを防御するために、いくつかの堅牢なアグリゲーションスキームが提案されている。
連邦学習における2つの一般的なアルゴリズムを用いて, 異なる攻撃下でのビザンチン・ロバスト・アグリゲーション方式の実験的検討を行った。
論文 参考訳(メタデータ) (2023-02-14T16:36:38Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Learning from History for Byzantine Robust Optimization [52.68913869776858]
分散学習の重要性から,ビザンチンの堅牢性が近年注目されている。
既存のロバストアグリゲーションルールの多くは、ビザンチンの攻撃者がいなくても収束しない可能性がある。
論文 参考訳(メタデータ) (2020-12-18T16:22:32Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z) - Federated Variance-Reduced Stochastic Gradient Descent with Robustness
to Byzantine Attacks [74.36161581953658]
本稿では、悪質なビザンツ攻撃が存在する場合のネットワーク上での学習のための分散有限サム最適化について論じる。
このような攻撃に対処するため、これまでのほとんどのレジリエントなアプローチは、勾配降下(SGD)と異なる頑健な集約ルールを組み合わせている。
本研究は,ネットワーク上の有限サム最適化を含むタスクを学習するための,ビザンチン攻撃耐性分散(Byrd-)SAGAアプローチを提案する。
論文 参考訳(メタデータ) (2019-12-29T19:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。