論文の概要: Jamming Attacks on Decentralized Federated Learning in General Multi-Hop
Wireless Networks
- arxiv url: http://arxiv.org/abs/2301.05250v1
- Date: Thu, 12 Jan 2023 19:03:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 15:13:17.069316
- Title: Jamming Attacks on Decentralized Federated Learning in General Multi-Hop
Wireless Networks
- Title(参考訳): 一般マルチホップ無線ネットワークにおける分散フェデレーション学習におけるジャミング攻撃
- Authors: Yi Shi, Yalin E. Sagduyu, Tugba Erpek
- Abstract要約: 我々は、ジャマーを用いてノード間のモデル交換を防止する効果的な攻撃について検討する。
無線ネットワークで発生した攻撃を妨害することにより,DFLの性能を大幅に低下させることができることを示す。
- 参考スコア(独自算出の注目度): 3.509171590450989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized federated learning (DFL) is an effective approach to train a
deep learning model at multiple nodes over a multi-hop network, without the
need of a server having direct connections to all nodes. In general, as long as
nodes are connected potentially via multiple hops, the DFL process will
eventually allow each node to experience the effects of models from all other
nodes via either direct connections or multi-hop paths, and thus is able to
train a high-fidelity model at each node. We consider an effective attack that
uses jammers to prevent the model exchanges between nodes. There are two attack
scenarios. First, the adversary can attack any link under a certain budget.
Once attacked, two end nodes of a link cannot exchange their models. Secondly,
some jammers with limited jamming ranges are deployed in the network and a
jammer can only jam nodes within its jamming range. Once a directional link is
attacked, the receiver node cannot receive the model from the transmitter node.
We design algorithms to select links to be attacked for both scenarios. For the
second scenario, we also design algorithms to deploy jammers at optimal
locations so that they can attack critical nodes and achieve the highest impact
on the DFL process. We evaluate these algorithms by using wireless signal
classification over a large network area as the use case and identify how these
attack mechanisms exploits various learning, connectivity, and sensing aspects.
We show that the DFL performance can be significantly reduced by jamming
attacks launched in a wireless network and characterize the attack surface as a
vulnerability study before the safe deployment of DFL over wireless networks.
- Abstract(参考訳): 分散統合学習(DFL)は、マルチホップネットワーク上の複数のノードで、すべてのノードに直接接続するサーバーを必要としないディープラーニングモデルをトレーニングするための効果的なアプローチである。
一般に、ノードが複数のホップを介して接続できる限り、dflプロセスは最終的に、各ノードが直接接続またはマルチホップパスを介して他のすべてのノードからモデルの影響を経験できるようになり、したがって各ノードで高忠実度モデルをトレーニングすることができる。
我々は、ジャマーを用いてノード間のモデル交換を防止する効果的な攻撃を考える。
攻撃シナリオは2つある。
まず、敵は特定の予算の下であらゆるリンクを攻撃できる。
一度攻撃されると、リンクの2つの終端ノードはモデルを交換できない。
第2に、ジャミング範囲が制限されたジャマーをネットワークに配置し、ジャマーはジャミング範囲内のノードのみをジャミングすることができる。
指向性リンクが攻撃されると、受信ノードは送信ノードからモデルを受け取ることができない。
両方のシナリオで攻撃されるリンクを選択するアルゴリズムを設計する。
第2のシナリオでは、重要なノードを攻撃し、dflプロセスに最も大きな影響を与えるように、ジャマーを最適な場所に配置するアルゴリズムも設計します。
大規模ネットワーク領域における無線信号の分類をユースケースとして評価し,これらの攻撃機構が学習,接続性,知覚の様々な側面をどのように活用するかを明らかにする。
また,dflを無線ネットワーク上に安全に配置する前に,攻撃面を脆弱性研究として特徴付けることで,dflの性能を著しく低下させることができることを示した。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Minimum Topology Attacks for Graph Neural Networks [70.17791814425148]
グラフニューラルネットワーク(GNN)は、敵対的トポロジ攻撃に対する堅牢性において大きな注目を集めている。
本稿では,各ノードに対する攻撃を成功させるのに十分な最小摂動を適応的に見つけることを目的とした,最小予算トポロジ攻撃という新しいタイプのトポロジ攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-05T07:29:12Z) - Reinforcement Learning for Node Selection in Branch-and-Bound [52.2648997215667]
現在の最先端セレクタは手作りのアンサンブルを使用して、ナイーブなサブノードセレクタと、個々のノードデータに依存する学習ノードセレクタを自動的に切り替える。
孤立ノードではなく木の状態全体を考慮しながら強化学習(RL)を用いる新しいシミュレーション手法を提案する。
論文 参考訳(メタデータ) (2023-09-29T19:55:56Z) - Communication-Efficient Decentralized Federated Learning via One-Bit
Compressive Sensing [52.402550431781805]
分散連合学習(DFL)は、様々なアプリケーションにまたがる実用性によって人気を博している。
集中型バージョンと比較して、DFLの多数のノード間で共有モデルをトレーニングするのはより難しい。
我々は,iADM (iexact alternating direction method) の枠組みに基づく新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - Secure Deep Learning-based Distributed Intelligence on Pocket-sized
Drones [75.80952211739185]
パームサイズのナノドロンはエッジノードの魅力的なクラスであるが、その限られた計算資源は大規模なディープラーニングモデルの実行を妨げている。
エッジフォッグ計算のパラダイムを採用することで、計算の一部をフォグにオフロードすることができるが、フォグノードや通信リンクが信頼できない場合、セキュリティ上の懸念が生じる。
ナノドローン上でランダムなサブネットワークを冗長に実行することにより,霧の計算を検証する分散エッジフォッグ実行方式を提案する。
論文 参考訳(メタデータ) (2023-07-04T08:29:41Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - Cascading Failures in Smart Grids under Random, Targeted and Adaptive
Attacks [4.968545158985657]
スマートグリッドにおけるカスケード障害について検討し、攻撃者がノードの次数、間性、クラスタリング係数に比例した確率で選択的に妥協する。
ネットワークはランダムアタックに比べてターゲットアタックに対して高速に崩壊することを示す。
敵は、同じ数のノードを一度に競合するのに比べて、この適応的アプローチに有利である。
論文 参考訳(メタデータ) (2022-06-25T21:38:31Z) - Graph-Fraudster: Adversarial Attacks on Graph Neural Network Based
Vertical Federated Learning [2.23816711660697]
グローバルモデルをトレーニングすることで,局所的なデータ保護を実現するために,垂直連合学習(VFL)を提案する。
グラフ構造データの場合、GNNモデルを用いてVFLフレームワークを構築することは自然な考え方である。
GNNモデルは敵の攻撃に弱いことが証明されている。
本稿では,GVFLが,集中型GNNモデルと同様の敵攻撃に対して脆弱であることを明らかにする。
論文 参考訳(メタデータ) (2021-10-13T03:06:02Z) - Single Node Injection Attack against Graph Neural Networks [39.455430635159146]
本稿では,グラフニューラルネットワーク(GNN)における単一ノード注入回避攻撃の極めて限定的なシナリオに焦点を当てる。
実験の結果、3つの公開データセット上の100%、98.60%、94.98%のノードが、1つのエッジで1つのノードを注入するだけで攻撃に成功していることがわかった。
本稿では,攻撃性能を確保しつつ,攻撃効率を向上させるために汎用化可能なノードインジェクションアタックモデルG-NIAを提案する。
論文 参考訳(メタデータ) (2021-08-30T08:12:25Z) - Adversarial Attacks on Deep Learning Based Power Allocation in a Massive
MIMO Network [62.77129284830945]
本稿では,大規模なマルチインプット・マルチアウトプット(MAMIMO)ネットワークのダウンリンクにおいて,逆攻撃がDLベースの電力割り当てを損なう可能性があることを示す。
我々はこれらの攻撃のパフォーマンスをベンチマークし、ニューラルネットワーク(NN)の入力に小さな摂動がある場合、ホワイトボックス攻撃は最大86%まで実現不可能な解決策をもたらすことを示した。
論文 参考訳(メタデータ) (2021-01-28T16:18:19Z) - Single-Node Attack for Fooling Graph Neural Networks [5.7923858184309385]
グラフニューラルネットワーク(GNN)は、さまざまな領域で幅広い適用性を示している。
ソーシャルネットワークやプロダクトレコメンデーションなど、これらのドメインのいくつかは、悪意のあるユーザや行動に肥大している。
本稿では,GNNが単一ノード対逆例の極めて限られたシナリオに対して脆弱であることを示す。
論文 参考訳(メタデータ) (2020-11-06T19:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。