論文の概要: Topology-Independent Robustness of the Weighted Mean under Label Poisoning Attacks in Heterogeneous Decentralized Learning
- arxiv url: http://arxiv.org/abs/2601.02682v1
- Date: Tue, 06 Jan 2026 03:32:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.788042
- Title: Topology-Independent Robustness of the Weighted Mean under Label Poisoning Attacks in Heterogeneous Decentralized Learning
- Title(参考訳): 不均一分散学習におけるラベル中毒攻撃時の重み付き平均の位相非依存ロバスト性
- Authors: Jie Peng, Weiyu Li, Stefan Vlaski, Qing Ling,
- Abstract要約: 本稿では,ラベル中毒攻撃における分散勾配降下のロバスト性について,ロバストおよび重み付き平均アグリゲータの両方を考慮した解析を行った。
その結果,ロバストアグリゲータの学習誤差はネットワークトポロジに依存し,重み付き平均アグリゲータの性能はトポロジに依存しないことがわかった。
- 参考スコア(独自算出の注目度): 30.863937541442837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robustness to malicious attacks is crucial for practical decentralized signal processing and machine learning systems. A typical example of such attacks is label poisoning, meaning that some agents possess corrupted local labels and share models trained on these poisoned data. To defend against malicious attacks, existing works often focus on designing robust aggregators; meanwhile, the weighted mean aggregator is typically considered a simple, vulnerable baseline. This paper analyzes the robustness of decentralized gradient descent under label poisoning attacks, considering both robust and weighted mean aggregators. Theoretical results reveal that the learning errors of robust aggregators depend on the network topology, whereas the performance of weighted mean aggregator is topology-independent. Remarkably, the weighted mean aggregator, although often considered vulnerable, can outperform robust aggregators under sufficient heterogeneity, particularly when: (i) the global contamination rate (i.e., the fraction of poisoned agents for the entire network) is smaller than the local contamination rate (i.e., the maximal fraction of poisoned neighbors for the regular agents); (ii) the network of regular agents is disconnected; or (iii) the network of regular agents is sparse and the local contamination rate is high. Empirical results support our theoretical findings, highlighting the important role of network topology in the robustness to label poisoning attacks.
- Abstract(参考訳): 悪意のある攻撃に対するロバスト性は、実用的な分散信号処理と機械学習システムにとって不可欠である。
このような攻撃の典型的な例はラベル中毒(英語版)であり、これは一部のエージェントが腐敗したローカルラベルを所有し、これらの有毒データに基づいて訓練されたモデルを共有することを意味する。
悪意のある攻撃から守るために、既存の作品では堅牢なアグリゲータの設計に重点を置いていることが多いが、重み付けされた平均アグリゲータは通常、単純で脆弱なベースラインと見なされている。
本稿では,ラベル中毒攻撃における分散勾配降下のロバスト性について,ロバストおよび重み付き平均アグリゲータの両方を考慮した解析を行った。
理論的には、ロバストアグリゲータの学習誤差はネットワークトポロジに依存するが、重み付け平均アグリゲータの性能はトポロジに依存しない。
注目すべきは、重み付き平均アグリゲーターは、しばしば脆弱と見なされるが、十分な不均一性の下で頑健なアグリゲーターより優れていることである。
一 グローバル汚染率(ネットワーク全体の毒化剤の分数)は、局所汚染率(常用剤の毒化隣人の分数)より小さい。
二 正規エージェントのネットワークが切断されていること。
三 常用剤のネットワークは希薄で、局部汚染率が高い。
その結果,ネットワークトポロジがロバスト性に重要な役割を担っていることが明らかとなった。
関連論文リスト
- Adversarial generalization of unfolding (model-based) networks [0.0]
本稿では,$l$-normの制約付き攻撃で乱れた場合の展開ネットワークの対角一般化について検討する。
これは展開ネットワークの対角一般化に関する最初の理論的解析である。
実世界のデータに関する一連の実験を行い、得られた理論を裏付ける結果を得た。
論文 参考訳(メタデータ) (2025-09-18T19:17:07Z) - Mean Aggregator is More Robust than Robust Aggregators under Label Poisoning Attacks on Distributed Heterogeneous Data [39.982626513585494]
我々は、ロバストなアグリゲーターは、ラベル中毒攻撃として知られる、弱いが実用的な悪意のある攻撃のクラスには保守的すぎることを示した。
驚くべきことに、平均アグリゲータは理論上の最先端のロバストアグリゲータよりも堅牢であることを示すことができる。
論文 参考訳(メタデータ) (2024-04-21T12:49:12Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - A Systematic Evaluation of Node Embedding Robustness [77.29026280120277]
本研究では,ノード埋め込みモデルのランダムおよび逆毒攻撃に対する経験的ロバスト性を評価する。
ネットワーク特性とノードラベルを用いて計算したエッジの追加,削除,再切り替えの戦略を比較した。
その結果,ノード分類はネットワーク再構成とは対照的に,高い性能劣化に悩まされていることがわかった。
論文 参考訳(メタデータ) (2022-09-16T17:20:23Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。