論文の概要: Adversarial Node Placement in Decentralized Federated Learning: Maximum Spanning-Centrality Strategy and Performance Analysis
- arxiv url: http://arxiv.org/abs/2511.06742v1
- Date: Mon, 10 Nov 2025 06:09:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.100433
- Title: Adversarial Node Placement in Decentralized Federated Learning: Maximum Spanning-Centrality Strategy and Performance Analysis
- Title(参考訳): 分散学習における対立ノード配置:最大スパンニング中心戦略と性能解析
- Authors: Adam Piaseczny, Eric Ruzomberka, Rohit Parasnis, Christopher G. Brinton,
- Abstract要約: フェデレーテッド・ラーニング(FL)が普及するにつれ、その分散型への関心が高まっている。
本稿では、分散化FLモデルの訓練性能における逆ノード配置の役割について述べる。
ネットワークトポロジ特性に基づいてノード配置を確率的に調整する新しい攻撃戦略MaxSpAN-FLを提案する。
- 参考スコア(独自算出の注目度): 19.22803542567591
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Federated Learning (FL) becomes more widespread, there is growing interest in its decentralized variants. Decentralized FL leverages the benefits of fast and energy-efficient device-to-device communications to obviate the need for a central server. However, this opens the door to new security vulnerabilities as well. While FL security has been a popular research topic, the role of adversarial node placement in decentralized FL remains largely unexplored. This paper addresses this gap by evaluating the impact of various coordinated adversarial node placement strategies on decentralized FL's model training performance. We adapt two threads of placement strategies to this context: maximum span-based algorithms, and network centrality-based approaches. Building on them, we propose a novel attack strategy, MaxSpAN-FL, which is a hybrid between these paradigms that adjusts node placement probabilistically based on network topology characteristics. Numerical experiments demonstrate that our attack consistently induces the largest degradation in decentralized FL models compared with baseline schemes across various network configurations and numbers of coordinating adversaries. We also provide theoretical support for why eigenvector centrality-based attacks are suboptimal in decentralized FL. Overall, our findings provide valuable insights into the vulnerabilities of decentralized FL systems, setting the stage for future research aimed at developing more secure and robust decentralized FL frameworks.
- Abstract(参考訳): フェデレーテッド・ラーニング(FL)が普及するにつれ、その分散型への関心が高まっている。
分散FLは、高速で省エネなデバイス間通信の利点を活用して、中央サーバの必要性を回避している。
しかし、これは新たなセキュリティ脆弱性への扉を開く。
FLセキュリティはポピュラーな研究トピックであるが、分散FLにおける敵ノード配置の役割はほとんど解明されていない。
本稿では,各座標ノード配置戦略が分散FLモデルトレーニング性能に与える影響を評価することで,このギャップを解消する。
我々は,最大スパンベースアルゴリズムとネットワーク集中型アプローチという,配置戦略の2つのスレッドをこの状況に適用する。
ネットワークトポロジ特性に基づいてノード配置を確率的に調整するこれらのパラダイムのハイブリッドであるMaxSpAN-FLを提案する。
数値実験により,我々の攻撃は,様々なネットワーク構成のベースラインスキームやコーディネート相手数と比較して,分散FLモデルの最大の劣化を連続的に引き起こすことが示された。
また、分散FLにおいて固有ベクトル中心性に基づく攻撃が最適でない理由を理論的に裏付ける。
全体として、我々の発見は分散FLシステムの脆弱性に関する貴重な洞察を与え、よりセキュアで堅牢な分散FLフレームワークを開発することを目的とした将来の研究の舞台となる。
関連論文リスト
- Not All Edges are Equally Robust: Evaluating the Robustness of Ranking-Based Federated Learning [49.68790647579509]
Federated Ranking Learning (FRL) は最先端のFLフレームワークであり、通信効率と中毒攻撃に対するレジリエンスで際立っている。
Vulnerable Edge Manipulation (VEM) 攻撃という, FRLに対する新たな局所モデル中毒攻撃を導入する。
我々の攻撃は、全体的な53.23%の攻撃効果を達成し、既存の方法よりも3.7倍のインパクトを与える。
論文 参考訳(メタデータ) (2025-03-12T00:38:14Z) - OCD-FL: A Novel Communication-Efficient Peer Selection-based Decentralized Federated Learning [2.203783085755103]
本稿では,OCD-FL(Opportunistic Communication- efficient decentralized Federated Learning)方式を提案する。
OCD-FLは協調作業のための系統的なFLピア選択で構成され,エネルギー消費を低減しつつ,FL知識の最大ゲインを達成することを目的としている。
実験の結果,OCD-FLは完全協調型FLと同等あるいは良好な性能を達成でき,消費エネルギーを少なくとも30%,最大80%低減できることがわかった。
論文 参考訳(メタデータ) (2024-03-06T20:34:08Z) - The Impact of Adversarial Node Placement in Decentralized Federated Learning Networks [6.661122374160369]
連邦学習(FL)の人気が高まるにつれ、新しい分散フレームワークが広まりつつある。
本稿では,ネットワーク内の配置を協調的に調整できる各種対向配置戦略において,分散FLの性能を解析する。
本稿では,敵同士の平均ネットワーク距離を最大化することにより,敵の中央性よりも敵の拡散を優先する新たな攻撃アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-14T06:48:50Z) - Towards Understanding Generalization and Stability Gaps between Centralized and Decentralized Federated Learning [57.35402286842029]
集中学習は常に分散学習(DFL)よりも一般化されていることを示す。
また、FLにおけるいくつかの一般的な設定について実験を行い、我々の理論解析が実験的な現象と一致し、いくつかの一般的なシナリオおよび実践シナリオにおいて文脈的に有効であることを示す。
論文 参考訳(メタデータ) (2023-10-05T11:09:42Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。