論文の概要: Mean Aggregator is More Robust than Robust Aggregators under Label Poisoning Attacks on Distributed Heterogeneous Data
- arxiv url: http://arxiv.org/abs/2404.13647v2
- Date: Wed, 25 Dec 2024 23:39:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:21:52.755179
- Title: Mean Aggregator is More Robust than Robust Aggregators under Label Poisoning Attacks on Distributed Heterogeneous Data
- Title(参考訳): 分散異種データのラベリング攻撃における平均アグリゲータはロバストアグリゲータよりもロバストである
- Authors: Jie Peng, Weiyu Li, Stefan Vlaski, Qing Ling,
- Abstract要約: 我々は、ロバストなアグリゲーターは、ラベル中毒攻撃として知られる、弱いが実用的な悪意のある攻撃のクラスには保守的すぎることを示した。
驚くべきことに、平均アグリゲータは理論上の最先端のロバストアグリゲータよりも堅牢であることを示すことができる。
- 参考スコア(独自算出の注目度): 39.982626513585494
- License:
- Abstract: Robustness to malicious attacks is of paramount importance for distributed learning. Existing works usually consider the classical Byzantine attacks model, which assumes that some workers can send arbitrarily malicious messages to the server and disturb the aggregation steps of the distributed learning process. To defend against such worst-case Byzantine attacks, various robust aggregators have been proposed. They are proven to be effective and much superior to the often-used mean aggregator. In this paper, however, we demonstrate that the robust aggregators are too conservative for a class of weak but practical malicious attacks, as known as label poisoning attacks, where the sample labels of some workers are poisoned. Surprisingly, we are able to show that the mean aggregator is more robust than the state-of-the-art robust aggregators in theory, given that the distributed data are sufficiently heterogeneous. In fact, the learning error of the mean aggregator is proven to be order-optimal in this case. Experimental results corroborate our theoretical findings, showing the superiority of the mean aggregator under label poisoning attacks.
- Abstract(参考訳): 悪意のある攻撃に対するロバスト性は、分散学習において最も重要である。
既存の作業は通常、古典的なビザンツ攻撃モデルを考慮しており、一部の作業者は、任意に悪意のあるメッセージをサーバに送信し、分散学習プロセスの集約ステップを妨害することができると仮定している。
このような最悪のビザンツ攻撃から守るため、様々な堅牢なアグリゲーターが提案されている。
それらは有効であることが証明され、しばしば使用される平均アグリゲーターよりもはるかに優れている。
しかし,本論文では,ロバストアグリゲータは,一部の労働者のサンプルラベルが毒を盛ったラベル中毒攻撃として知られる,弱いが実用的な悪意のある攻撃の類型には保守的すぎることを実証する。
驚くべきことに、分散データが十分に不均一であることを考えると、平均アグリゲータは理論上は最先端のロバストアグリゲータよりも頑健であることを示すことができる。
実際、この場合、平均アグリゲータの学習誤差は順序最適であることが証明されている。
実験結果から, ラベル中毒におけるアグリゲーターの優位性が示唆された。
関連論文リスト
- Sensitivity Curve Maximization: Attacking Robust Aggregators in Distributed Learning [23.004319632981147]
分散学習エージェントは、グローバルな学習問題を協調的に解決することを目的としている。
ネットワークのサイズが大きくなるにつれて、個々のエージェントが悪意や欠陥を持っている可能性がますます高まっている。
これは、学習プロセスの退化または完全な分解につながる。
論文 参考訳(メタデータ) (2024-12-23T17:44:03Z) - FedRISE: Rating Induced Sign Election of Gradients for Byzantine Tolerant Federated Aggregation [5.011091042850546]
We developed a robust aggregator called FedRISE for cross-silo FL。
3つのデータセットとアーキテクチャに対して6つの有害な攻撃を受ける8つのロバストアグリゲータと比較した。
以上の結果から,FedRISEは厳密な緩やかな包摂的包摂的定式化のため,少なくともいくつかの攻撃において,既存のロバストアグリゲータが崩壊することを示し,FedRISEはより堅牢性を示す。
論文 参考訳(メタデータ) (2024-11-06T12:14:11Z) - Defending Against Sophisticated Poisoning Attacks with RL-based Aggregation in Federated Learning [12.352511156767338]
フェデレート学習は、毒殺攻撃のモデル化に非常に影響を受けやすい。
本稿では,RLに基づくアダプティブアグリゲーション手法であるAdaAggRLを提案する。
4つの実世界のデータセットの実験により、提案された防衛モデルは高度な攻撃に対して広く採用されている防衛モデルよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-06-20T11:33:14Z) - Adversarial Attacks are a Surprisingly Strong Baseline for Poisoning
Few-Shot Meta-Learners [28.468089304148453]
これにより、システムの学習アルゴリズムを騙すような、衝突する入力セットを作れます。
ホワイトボックス環境では、これらの攻撃は非常に成功しており、ターゲットモデルの予測が偶然よりも悪化する可能性があることを示す。
攻撃による「過度な対応」と、攻撃が生成されたモデルと攻撃が転送されたモデルとのミスマッチという2つの仮説を探索する。
論文 参考訳(メタデータ) (2022-11-23T14:55:44Z) - Towards Fair Classification against Poisoning Attacks [52.57443558122475]
攻撃者が少数のサンプルを訓練データに挿入できる毒殺シナリオについて検討する。
本稿では,従来の防犯手法に適合する汎用的かつ理論的に保証された枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-18T00:49:58Z) - Adversarial Examples for Extreme Multilabel Text Classification [2.1549398927094874]
XMTC(Extreme Multilabel Text Classification)は、出力空間が極端に大きいテキスト分類問題である。
深層学習に基づくXMTCモデルの敵の例に対する堅牢性は、主に過小評価されている。
我々はXMTCモデルが正の標的攻撃に対して非常に脆弱であるが、負の標的攻撃に対してより堅牢であることを示す。
論文 参考訳(メタデータ) (2021-12-14T16:20:37Z) - Indiscriminate Poisoning Attacks Are Shortcuts [77.38947817228656]
その結果, 標的ラベルを付与した場合, 進行性毒素攻撃の摂動は, ほぼ分離可能であることがわかった。
このような合成摂動は、故意に作られた攻撃と同じくらい強力であることを示す。
我々の発見は、アンフショートカット学習の問題が以前考えられていたよりも深刻であることを示唆している。
論文 参考訳(メタデータ) (2021-11-01T12:44:26Z) - Adversarial Examples Make Strong Poisons [55.63469396785909]
従来は訓練済みのモデルに対する攻撃を意図していた敵の例は,近年の毒殺に特化して設計された手法よりも,データ中毒に有効であることを示す。
また,本手法は,データセットのセキュアなリリースにおいて,既存の中毒法よりも極めて効果的である。
論文 参考訳(メタデータ) (2021-06-21T01:57:14Z) - Byzantine-Robust Learning on Heterogeneous Datasets via Bucketing [55.012801269326594]
ビザンチンの堅牢な分散学習では、中央サーバは、複数のワーカーに分散したデータよりも、機械学習モデルを訓練したい。
これらの労働者のごく一部は、所定のアルゴリズムから逸脱し、任意のメッセージを送ることができる。
本稿では,既存のロバストなアルゴリズムを無視可能な計算コストでヘテロジニアスなデータセットに適応させる,シンプルなバケット方式を提案する。
論文 参考訳(メタデータ) (2020-06-16T17:58:53Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。