論文の概要: The Impact of Adversarial Node Placement in Decentralized Federated Learning Networks
- arxiv url: http://arxiv.org/abs/2311.07946v4
- Date: Tue, 19 Mar 2024 19:25:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-03-21 22:17:48.081625
- Title: The Impact of Adversarial Node Placement in Decentralized Federated Learning Networks
- Title(参考訳): 分散化フェデレーション学習ネットワークにおける対立ノード配置の影響
- Authors: Adam Piaseczny, Eric Ruzomberka, Rohit Parasnis, Christopher G. Brinton,
- Abstract要約: 連邦学習(FL)の人気が高まるにつれ、新しい分散フレームワークが広まりつつある。
本稿では,ネットワーク内の配置を協調的に調整できる各種対向配置戦略において,分散FLの性能を解析する。
本稿では,敵同士の平均ネットワーク距離を最大化することにより,敵の中央性よりも敵の拡散を優先する新たな攻撃アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 6.661122374160369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Federated Learning (FL) grows in popularity, new decentralized frameworks are becoming widespread. These frameworks leverage the benefits of decentralized environments to enable fast and energy-efficient inter-device communication. However, this growing popularity also intensifies the need for robust security measures. While existing research has explored various aspects of FL security, the role of adversarial node placement in decentralized networks remains largely unexplored. This paper addresses this gap by analyzing the performance of decentralized FL for various adversarial placement strategies when adversaries can jointly coordinate their placement within a network. We establish two baseline strategies for placing adversarial node: random placement and network centrality-based placement. Building on this foundation, we propose a novel attack algorithm that prioritizes adversarial spread over adversarial centrality by maximizing the average network distance between adversaries. We show that the new attack algorithm significantly impacts key performance metrics such as testing accuracy, outperforming the baseline frameworks by between $9\%$ and $66.5\%$ for the considered setups. Our findings provide valuable insights into the vulnerabilities of decentralized FL systems, setting the stage for future research aimed at developing more secure and robust decentralized FL frameworks.
- Abstract(参考訳): 連邦学習(FL)の人気が高まるにつれ、新しい分散フレームワークが広まりつつある。
これらのフレームワークは分散環境の利点を利用して、高速でエネルギー効率の良いデバイス間通信を可能にする。
しかし、この人気の高まりは、堅牢なセキュリティ対策の必要性を増している。
既存の研究はFLセキュリティの様々な側面を探求してきたが、分散ネットワークにおける敵ノード配置の役割はほとんど解明されていない。
本稿では,ネットワーク内の配置を協調的に調整できる様々な敵配置戦略において,分散FLの性能を解析することにより,このギャップを解消する。
ランダムな配置とネットワーク中心性に基づく配置の2つの基本戦略を確立する。
本稿では, 敵同士の平均ネットワーク距離を最大化することにより, 敵中心性よりも敵の拡散を優先する新たな攻撃アルゴリズムを提案する。
新たなアタックアルゴリズムは、テスト精度などの重要なパフォーマンス指標に大きく影響し、考慮されたセットアップに対して、ベースラインフレームワークを9.5%から6.5.%に上回る結果となった。
我々の研究は、分散FLシステムの脆弱性に関する貴重な知見を提供し、よりセキュアで堅牢な分散FLフレームワークを開発することを目的とした将来の研究の舞台となる。
関連論文リスト
- A Secure and Private Distributed Bayesian Federated Learning Design [56.92336577799572]
DFL(Distributed Federated Learning)は、中央パラメータサーバを持たない大規模システム間の分散モデルトレーニングを可能にする。
DFLは、3つの重要な課題に直面している: 正直な隣人からのプライバシー漏洩、中央調整の欠如による収束の遅さ、モデルの精度の低下を目指すビザンティンの敵に対する脆弱性。
本稿では,ビザンチンの堅牢性,プライバシー保護,収束促進を統合した新しいDFLフレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-23T16:12:02Z) - Toward a Sustainable Federated Learning Ecosystem: A Practical Least Core Mechanism for Payoff Allocation [71.86087908416255]
最小コア(LC)概念に基づく配当フレームワークを提案する。
従来の方法とは異なり、LCは最大の不満を最小限に抑えてフェデレーションの凝集を優先する。
統合侵入検知におけるケーススタディは、我々のメカニズムが重要な貢献者や戦略的提携を正しく識別できることを実証している。
論文 参考訳(メタデータ) (2026-02-03T11:10:50Z) - Adversarial Node Placement in Decentralized Federated Learning: Maximum Spanning-Centrality Strategy and Performance Analysis [19.22803542567591]
フェデレーテッド・ラーニング(FL)が普及するにつれ、その分散型への関心が高まっている。
本稿では、分散化FLモデルの訓練性能における逆ノード配置の役割について述べる。
ネットワークトポロジ特性に基づいてノード配置を確率的に調整する新しい攻撃戦略MaxSpAN-FLを提案する。
論文 参考訳(メタデータ) (2025-11-10T06:09:28Z) - Targeted Attacks and Defenses for Distributed Federated Learning in Vehicular Networks [6.782487123205847]
新興のネットワークシステムでは、モバイルエッジデバイスが大量のデータを集約して機械学習の意思決定を行う。
フェデレートラーニング(FL)は、ディープニューラルネットワークのローカルモデル重みをノードが共有できるようにすることによって、これらの制約とプライバシ上の懸念に対処する。
我々は、高度な訓練用データ中毒とバックドア(トロイの木馬)攻撃を設計し、車載ネットワークにおける新たな脆弱性を特徴づける。
論文 参考訳(メタデータ) (2025-10-16T20:05:13Z) - Not All Edges are Equally Robust: Evaluating the Robustness of Ranking-Based Federated Learning [49.68790647579509]
Federated Ranking Learning (FRL) は最先端のFLフレームワークであり、通信効率と中毒攻撃に対するレジリエンスで際立っている。
Vulnerable Edge Manipulation (VEM) 攻撃という, FRLに対する新たな局所モデル中毒攻撃を導入する。
我々の攻撃は、全体的な53.23%の攻撃効果を達成し、既存の方法よりも3.7倍のインパクトを与える。
論文 参考訳(メタデータ) (2025-03-12T00:38:14Z) - Towards Distributed Backdoor Attacks with Network Detection in Decentralized Federated Learning [15.53594850037861]
攻撃成功率はネットワークアーキテクチャにおける攻撃者の分布に依存することを実験的に実証した。
本論文は,攻撃者が位置情報を判断できないことを考慮し,攻撃者の位置分布に関わらず高い攻撃成功率を達成することを目的とする。
論文 参考訳(メタデータ) (2025-01-25T00:47:37Z) - Deep-Relative-Trust-Based Diffusion for Decentralized Deep Learning [12.883347524020724]
分散学習戦略により、エージェントの集合は集中集約やオーケストレーションを必要とせずに、ローカルデータセットから効率的に学習することができる。
本稿では,最近導入されたニューラルネットワークの類似度尺度であるディープ・リレーショナル・トラスト(DRT)に基づく,DRT拡散と呼ばれる新しい分散学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-01-06T17:31:36Z) - Byzantine-Robust Aggregation for Securing Decentralized Federated
Learning [0.32985979395737774]
Federated Learning(FL)は、デバイス上でAIモデルをローカルにトレーニングすることで、プライバシの問題に対処する分散機械学習アプローチとして登場した。
分散フェデレートラーニング(DFL)は、中央サーバを排除し、単一障害点の回避を通じてスケーラビリティと堅牢性を向上させることで、FLパラダイムを拡張します。
We present a novel byzantine-robust aggregate algorithm to enhance the security of DFL environment, coin, WFAgg。
論文 参考訳(メタデータ) (2024-09-26T11:36:08Z) - Decentralized Federated Anomaly Detection in Smart Grids: A P2P Gossip Approach [0.44328715570014865]
本稿では,ランダムウォーク(Random Walk)とエピデミック(Epidemic)という2つの主要なゴシッププロトコルに基づく分散化フェデレーション異常検出手法を提案する。
従来のフェデレートラーニングに比べて,トレーニング時間の35%が顕著に改善されている。
論文 参考訳(メタデータ) (2024-07-20T10:45:06Z) - Enhancing Trust and Privacy in Distributed Networks: A Comprehensive Survey on Blockchain-based Federated Learning [51.13534069758711]
ブロックチェーンのような分散型アプローチは、複数のエンティティ間でコンセンサスメカニズムを実装することで、魅力的なソリューションを提供する。
フェデレートラーニング(FL)は、参加者がデータのプライバシを保護しながら、協力的にモデルをトレーニングすることを可能にする。
本稿では,ブロックチェーンのセキュリティ機能とFLのプライバシ保護モデルトレーニング機能の相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-28T07:08:26Z) - OCD-FL: A Novel Communication-Efficient Peer Selection-based Decentralized Federated Learning [2.203783085755103]
本稿では,OCD-FL(Opportunistic Communication- efficient decentralized Federated Learning)方式を提案する。
OCD-FLは協調作業のための系統的なFLピア選択で構成され,エネルギー消費を低減しつつ,FL知識の最大ゲインを達成することを目的としている。
実験の結果,OCD-FLは完全協調型FLと同等あるいは良好な性能を達成でき,消費エネルギーを少なくとも30%,最大80%低減できることがわかった。
論文 参考訳(メタデータ) (2024-03-06T20:34:08Z) - Networked Communication for Decentralised Agents in Mean-Field Games [59.01527054553122]
平均フィールドゲームフレームワークにネットワーク通信を導入する。
当社のアーキテクチャは、中央集権型と独立した学習ケースの双方で保証されていることを証明しています。
論文 参考訳(メタデータ) (2023-06-05T10:45:39Z) - Attacks on Robust Distributed Learning Schemes via Sensitivity Curve
Maximization [37.464005524259356]
曲線の感度(SCM)に基づく新たな攻撃法を提案する。
我々は, 従来の頑健なアグリゲーションスキームを, 小さいが効果的な摂動を注入することで破壊できることを実証した。
論文 参考訳(メタデータ) (2023-04-27T08:41:57Z) - On the (In)security of Peer-to-Peer Decentralized Machine Learning [16.671864590599288]
我々は、受動的・能動的に非中央集権的な敵に対して、新しい攻撃群を紹介した。
分散学習の提案者による主張とは裏腹に、分散学習は連合学習よりもセキュリティ上の優位性を提供していないことを実証する。
論文 参考訳(メタデータ) (2022-05-17T15:36:50Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Competing Adaptive Networks [56.56653763124104]
適応エージェントのチーム間での分散競争のためのアルゴリズムを開発する。
本稿では,生成的対向ニューラルネットワークの分散学習への応用について述べる。
論文 参考訳(メタデータ) (2021-03-29T14:42:15Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - Decentralized Learning for Channel Allocation in IoT Networks over
Unlicensed Bandwidth as a Contextual Multi-player Multi-armed Bandit Game [134.88020946767404]
本稿では,プライマリセルネットワークにライセンスされたスペクトルに基づいて,アドホックなモノのインターネットネットワークにおける分散チャネル割り当て問題について検討する。
本研究では,この問題をコンテキスト型マルチプレイヤー・マルチアームバンディットゲームにマッピングし,試行錯誤による純粋に分散化された3段階ポリシー学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-30T10:05:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。