論文の概要: Voyager: MTD-Based Aggregation Protocol for Mitigating Poisoning Attacks on DFL
- arxiv url: http://arxiv.org/abs/2310.08739v2
- Date: Wed, 14 Feb 2024 09:05:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 02:33:12.372012
- Title: Voyager: MTD-Based Aggregation Protocol for Mitigating Poisoning Attacks on DFL
- Title(参考訳): ボイジャー:DFL攻撃を緩和するためのMTDベースのアグリゲーションプロトコル
- Authors: Chao Feng, Alberto Huertas Celdran, Michael Vuong, Gerome Bovet, Burkhard Stiller,
- Abstract要約: 本研究では,ネットワークトポロジが分散型フェデレート学習(DFL)モデルのロバスト性に及ぼす影響を理論的に分析する。
DFLモデルのロバスト性を改善するために, ボイジャーと呼ばれる3段階のMTDベースのアグリゲーションプロトコルを提案する。
- 参考スコア(独自算出の注目度): 7.228253116465784
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The growing concern over malicious attacks targeting the robustness of both Centralized and Decentralized Federated Learning (FL) necessitates novel defensive strategies. In contrast to the centralized approach, Decentralized FL (DFL) has the advantage of utilizing network topology and local dataset information, enabling the exploration of Moving Target Defense (MTD) based approaches. This work presents a theoretical analysis of the influence of network topology on the robustness of DFL models. Drawing inspiration from these findings, a three-stage MTD-based aggregation protocol, called Voyager, is proposed to improve the robustness of DFL models against poisoning attacks by manipulating network topology connectivity. Voyager has three main components: an anomaly detector, a network topology explorer, and a connection deployer. When an abnormal model is detected in the network, the topology explorer responds strategically by forming connections with more trustworthy participants to secure the model. Experimental evaluations show that Voyager effectively mitigates various poisoning attacks without imposing significant resource and computational burdens on participants. These findings highlight the proposed reactive MTD as a potent defense mechanism in the context of DFL.
- Abstract(参考訳): 中央集権的および分散的連邦学習(FL)の堅牢性をターゲットにした悪意のある攻撃に対する懸念が高まっているため、新たな防衛戦略が必要である。
集中型アプローチとは対照的に、分散FL(DFL)は、ネットワークトポロジとローカルデータセット情報を活用する利点があり、移動目標防衛(MTD)ベースのアプローチの探索を可能にする。
本研究はDFLモデルのロバスト性に対するネットワークトポロジーの影響に関する理論的解析である。
これらの知見からインスピレーションを得て,ネットワークトポロジ接続を操作することにより,DFLモデルの毒性攻撃に対する堅牢性を向上させるために,ボイジャーと呼ばれる3段階のMTDベースのアグリゲーションプロトコルを提案する。
ボイジャーには、異常検知器、ネットワークトポロジーエクスプローラー、接続展開器の3つの主要コンポーネントがある。
ネットワーク内で異常モデルが検出されると、トポロジエクスプローラーは、より信頼できる参加者との接続を形成して、モデルを保護することによって戦略的に応答する。
実験的評価により、ボイジャーは参加者に大きな資源と計算負荷を課すことなく、様々な毒殺攻撃を効果的に軽減することが示された。
これらの知見は,DFLの文脈における強力な防御機構として,反応性MTDを提案する。
関連論文リスト
- Leveraging MTD to Mitigate Poisoning Attacks in Decentralized FL with Non-IID Data [9.715501137911552]
本稿では,DFLモデルのロバスト性を高めるため,移動目標防衛(MTD)アプローチを用いたフレームワークを提案する。
この枠組みはDFLシステムの攻撃面を継続的に修正することにより、効果的に中毒攻撃を緩和することを目的としている。
論文 参考訳(メタデータ) (2024-09-28T10:09:37Z) - R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [83.77114091471822]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLの課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータが相手のジャミングに感受性を持つことである。
これは、言語理解に不可欠である大規模言語モデル(LLM)における単語埋め込みパラメータに対して特に顕著である。
無線ネットワーク上でのLLM(R-SFLLM)を用いたレジリエンスSFLのための物理層フレームワークを開発した。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - Poisoning Attacks on Federated Learning-based Wireless Traffic Prediction [4.968718867282096]
Federated Learning (FL)は、複数の基地局でグローバルコントロールモデルをトレーニングするための分散フレームワークを提供する。
これは、無線トラフィック予測(WTP)のようなアプリケーションにとって理想的であり、ネットワークリソースの最適化において重要な役割を果たす。
FLベースの分散無線システムのセキュリティ面、特に回帰ベースのWTP問題については、その約束にもかかわらず、不適切な調査が続けられている。
論文 参考訳(メタデータ) (2024-04-22T17:50:27Z) - Topology Learning for Heterogeneous Decentralized Federated Learning
over Unreliable D2D Networks [25.672506041978615]
分散統合学習(DFL)は、無線デバイス間通信(D2D)ネットワークにおいて大きな関心を集めている。
我々はDFLの理論収束解析を行い、収束境界を導出する。
本研究では,DFLにおける表現不一致と信頼できないリンクを考慮した新しいトポロジー学習手法ToLRDULを開発した。
論文 参考訳(メタデータ) (2023-12-21T07:01:18Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Sentinel: An Aggregation Function to Secure Decentralized Federated Learning [9.046402244232343]
Decentralized Federated Learning (DFL)は、協調モデルをトレーニングするための革新的なパラダイムとして登場し、単一障害点に対処する。
既存の防御機構は集中型FLのために設計されており、DFLの特異性を十分に活用していない。
この研究は、DFLの毒殺攻撃に対抗する防衛戦略であるSentinelを紹介した。
論文 参考訳(メタデータ) (2023-10-12T07:45:18Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - Studying the Robustness of Anti-adversarial Federated Learning Models
Detecting Cyberattacks in IoT Spectrum Sensors [0.4925222726301578]
デバイスフィンガープリントと機械学習(ML/DL)が組み合わさって、リソース制約スペクトルセンサによって管理されるデータを対象としたサイバー攻撃を検出する際に、有望な性能を報告している。
モデルのトレーニングに必要なデータ量と、そのようなシナリオのプライバシに関する懸念は、集中型ML/DLベースのアプローチの適用性を制限します。
論文 参考訳(メタデータ) (2022-01-31T22:52:00Z) - Federated Learning in the Sky: Joint Power Allocation and Scheduling
with UAV Swarms [98.78553146823829]
無人航空機(UAV)は様々なタスクを実行するために機械学習(ML)を利用する必要がある。
本稿では,UAVスワム内に分散学習(FL)アルゴリズムを実装するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T14:04:01Z) - Targeted free energy estimation via learned mappings [66.20146549150475]
自由エネルギー摂動 (FEP) は60年以上前にズワンツィヒによって自由エネルギー差を推定する方法として提案された。
FEPは、分布間の十分な重複の必要性という厳しい制限に悩まされている。
目標自由エネルギー摂動(Targeted Free Energy Perturbation)と呼ばれるこの問題を緩和するための1つの戦略は、オーバーラップを増やすために構成空間の高次元マッピングを使用する。
論文 参考訳(メタデータ) (2020-02-12T11:10:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。