論文の概要: Understanding Byzantine Robustness in Federated Learning with A Black-box Server
- arxiv url: http://arxiv.org/abs/2408.06042v1
- Date: Mon, 12 Aug 2024 10:18:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 13:23:51.977614
- Title: Understanding Byzantine Robustness in Federated Learning with A Black-box Server
- Title(参考訳): ブラックボックスサーバを用いたフェデレーション学習におけるビザンチンのロバストさの理解
- Authors: Fangyuan Zhao, Yuexiang Xie, Xuebin Ren, Bolin Ding, Shusen Yang, Yaliang Li,
- Abstract要約: フェデレートラーニング(FL)は、一部の参加者が学習モデルの収束を損なう傾向にあるビザンティン攻撃に対して脆弱になる。
以前の研究では、様々なタイプのビザンツ人攻撃に対して、参加者からの更新を集約するために堅牢なルールを適用することを提案した。
実際には、FLシステムにはブラックボックスサーバが組み込まれており、採用されているアグリゲーションルールは参加者にアクセスできないため、ビザンティン攻撃を自然に防御したり弱めたりすることができる。
- 参考スコア(独自算出の注目度): 47.98788470469994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) becomes vulnerable to Byzantine attacks where some of participators tend to damage the utility or discourage the convergence of the learned model via sending their malicious model updates. Previous works propose to apply robust rules to aggregate updates from participators against different types of Byzantine attacks, while at the same time, attackers can further design advanced Byzantine attack algorithms targeting specific aggregation rule when it is known. In practice, FL systems can involve a black-box server that makes the adopted aggregation rule inaccessible to participants, which can naturally defend or weaken some Byzantine attacks. In this paper, we provide an in-depth understanding on the Byzantine robustness of the FL system with a black-box server. Our investigation demonstrates the improved Byzantine robustness of a black-box server employing a dynamic defense strategy. We provide both empirical evidence and theoretical analysis to reveal that the black-box server can mitigate the worst-case attack impact from a maximum level to an expectation level, which is attributed to the inherent inaccessibility and randomness offered by a black-box server.The source code is available at https://github.com/alibaba/FederatedScope/tree/Byzantine_attack_defense to promote further research in the community.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)は、一部の参加者が悪質なモデルの更新を送信することで、学習モデルの有用性を損なう傾向にあるビザンチン攻撃に対して脆弱になる。
以前の研究では、様々な種類のビザンツ攻撃に対して参加者からの更新を集約するために堅牢なルールを適用することを提案したが、同時に攻撃者は特定のアグリゲーションルールを既知の時にターゲットとする高度なビザンツ攻撃アルゴリズムを設計することができる。
実際には、FLシステムにはブラックボックスサーバが組み込まれており、採用されているアグリゲーションルールは参加者にアクセスできないため、ビザンティン攻撃を自然に防御したり弱めたりすることができる。
本稿では,ブラックボックスサーバを用いたFLシステムのビザンチン強靭性に関する深い理解を提供する。
本研究は,動的防衛戦略を用いたブラックボックスサーバのビザンチン堅牢性の向上を実証する。
我々は,ブラックボックスサーバが最悪の攻撃の影響を最大レベルから予想レベルまで軽減できることを示す実証的証拠と理論的解析の両方を提供する。これはブラックボックスサーバが提供する固有の到達不能性とランダム性に起因する。ソースコードはhttps://github.com/alibaba/FederatedScope/tree/Byzantine_ attack_defenseで公開されており,コミュニティのさらなる研究を促進することができる。
関連論文リスト
- Byzantine-Robust Federated Learning: An Overview With Focus on Developing Sybil-based Attacks to Backdoor Augmented Secure Aggregation Protocols [0.0]
フェデレートラーニング(FL)パラダイムは、多数のクライアントがプライベートデータ上で機械学習モデルを協調的にトレーニングすることを可能にする。
従来のFLスキームは、悪意のあるバックドアを注入することによってモデルのパフォーマンスを損なおうとするビザンティン攻撃に弱いままである。
本稿では,既存の手法やフレームワークの総括的かつ更新された分類法について,フェデレートラーニングプロトコルのロバストネスの強みと弱みを詳細に分析し,詳細に分析する前に提案する。
我々は,RoFLの脆弱性を利用したSybilベースの2つの新しい攻撃を提案する。
論文 参考訳(メタデータ) (2024-10-30T04:20:22Z) - BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Certifiable Black-Box Attacks with Randomized Adversarial Examples: Breaking Defenses with Provable Confidence [34.35162562625252]
ブラックボックスの敵攻撃は、機械学習モデルを妥協する強力な可能性を示している。
証明可能な保証付きブラックボックス攻撃の新たなパラダイムについて検討する。
この新しいブラックボックス攻撃は、機械学習モデルの重大な脆弱性を露呈する。
論文 参考訳(メタデータ) (2023-04-10T01:12:09Z) - Byzantines can also Learn from History: Fall of Centered Clipping in
Federated Learning [6.974212769362569]
本研究では,CCフレームワークの防御を回避できる新たな攻撃戦略を提案する。
我々はまた、提案されている他のビザンツ攻撃に対して有効である、より堅牢で高速な防衛機構も提案する。
論文 参考訳(メタデータ) (2022-08-21T14:39:30Z) - Parallel Rectangle Flip Attack: A Query-based Black-box Attack against
Object Detection [89.08832589750003]
本稿では,攻撃領域近傍の準最適検出を回避するために,ランダム探索による並列矩形フリップ攻撃(PRFA)を提案する。
提案手法は, アンカーベースやアンカーフリーなど, 様々な人気物体検出装置を効果的かつ効率的に攻撃し, 転送可能な対向例を生成する。
論文 参考訳(メタデータ) (2022-01-22T06:00:17Z) - Certified Federated Adversarial Training [3.474871319204387]
我々は、労働者のクォーラムが完全に悪意のある場合、FLシステムに敵の訓練を施すシナリオに取り組む。
我々は、モデルに毒を盛ったアタッカーをモデル化し、そのモデルが明らかに敵の堅牢性を示すように、敵の訓練に弱点を挿入する。
この防御は、アダプティブアタックに対してさえも、敵の堅牢性を維持することができることを示す。
論文 参考訳(メタデータ) (2021-12-20T13:40:20Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Adversarial training may be a double-edged sword [50.09831237090801]
深層ネットワークの決定境界における敵対的トレーニングの幾らかの幾何学的結果が、ある種のブラックボックス攻撃のエッジとなることを示す。
特に、敵の訓練がホワイトボックスシナリオのロバスト性を大幅に改善する効果的な方法であることを示すために、ロバストネスゲインと呼ばれる指標を定義するが、より現実的な意思決定ベースのブラックボックス攻撃に対して、そのようなロバストネスゲインを提供することはできない。
論文 参考訳(メタデータ) (2021-07-24T19:09:16Z) - Blacklight: Scalable Defense for Neural Networks against Query-Based
Black-Box Attacks [34.04323550970413]
我々は、クエリベースのブラックボックス攻撃に対する新たな防御であるブラックライトを提案する。
Blacklightはクエリベースのブラックボックス攻撃を検出する。
我々はBlacklightを8つの最先端攻撃に対して、様々なモデルと画像分類タスクで評価する。
論文 参考訳(メタデータ) (2020-06-24T20:52:24Z) - Spanning Attack: Reinforce Black-box Attacks with Unlabeled Data [96.92837098305898]
Black-box攻撃は、機械学習モデルのインプット・アウトプットペアをクエリすることで、敵の摂動を発生させることを目的としている。
ブラックボックス攻撃はしばしば、入力空間の高次元性のためにクエリ非効率性の問題に悩まされる。
本研究では,低次元部分空間における逆摂動を,補助的なラベルのないデータセットに分散させることで抑制するスパンニング攻撃と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-05-11T05:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。