論文の概要: Jamming Attacks on Federated Learning in Wireless Networks
- arxiv url: http://arxiv.org/abs/2201.05172v1
- Date: Thu, 13 Jan 2022 19:00:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-17 15:35:05.144379
- Title: Jamming Attacks on Federated Learning in Wireless Networks
- Title(参考訳): 無線ネットワークにおけるフェデレーション学習に対するジャミング攻撃
- Authors: Yi Shi and Yalin E. Sagduyu
- Abstract要約: フェデレートラーニング(FL)は、クライアントグループが協力してサーバでグローバルモデルをトレーニングできるように、分散学習環境を提供する。
本稿では,無線ネットワーク上で実行されたFLプロセスに障害を与えるため,空対空ジャミング攻撃の起動方法について検討する。
- 参考スコア(独自算出の注目度): 3.6582851384058594
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) offers a decentralized learning environment so that a
group of clients can collaborate to train a global model at the server, while
keeping their training data confidential. This paper studies how to launch
over-the-air jamming attacks to disrupt the FL process when it is executed over
a wireless network. As a wireless example, FL is applied to learn how to
classify wireless signals collected by clients (spectrum sensors) at different
locations (such as in cooperative sensing). An adversary can jam the
transmissions for the local model updates from clients to the server (uplink
attack), or the transmissions for the global model updates the server to
clients (downlink attack), or both. Given a budget imposed on the number of
clients that can be attacked per FL round, clients for the (uplink/downlink)
attack are selected according to their local model accuracies that would be
expected without an attack or ranked via spectrum observations. This novel
attack is extended to general settings by accounting different processing
speeds and attack success probabilities for clients. Compared to benchmark
attack schemes, this attack approach degrades the FL performance significantly,
thereby revealing new vulnerabilities of FL to jamming attacks in wireless
networks.
- Abstract(参考訳): federated learning (fl)は分散学習環境を提供するので、クライアントのグループは、トレーニングデータを秘密にしながら、サーバでグローバルモデルをトレーニングするために協力することができる。
本稿では,無線ネットワーク上で実行されたFLプロセスに障害を与えるため,空対空ジャミング攻撃の起動方法について検討する。
無線の例として、flは異なる場所でクライアント(スペクトラムセンサー)が収集した無線信号を分類する方法(協調センシングなど)を学ぶために適用される。
敵は、クライアントからサーバへのローカルモデルの更新(アップリンク攻撃)の送信を妨害したり、グローバルモデルの送信がサーバからクライアントへの更新(ダウンリンク攻撃)またはその両方を妨害することができる。
flラウンド毎に攻撃可能なクライアント数に予算が課される場合、攻撃なしで期待される、またはスペクトル観測によってランク付けされるローカルモデルアキュラリティに従って、(アップリンク/ダウンリンク)攻撃用のクライアントが選択される。
この新たな攻撃は、異なる処理速度を考慮し、クライアントの攻撃成功確率を考慮し、一般的な設定にまで拡張される。
ベンチマーク攻撃方式と比較して、この攻撃手法はFL性能を著しく低下させ、無線ネットワークにおける攻撃を妨害する新たな脆弱性を明らかにする。
関連論文リスト
- FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - DABS: Data-Agnostic Backdoor attack at the Server in Federated Learning [14.312593000209693]
フェデレートラーニング(FL)は、中央サーバの協調の下で、分散デバイスからローカルモデルを集約することで、グローバルモデルをトレーニングしようとする試みである。
多数の異種デバイスが存在するため、FLは様々な攻撃、特にステルスなバックドア攻撃に対して脆弱である。
我々は,サーバがグローバルモデルを直接変更して,FLシステムにバックドアを施すような,FLの新たなアタックモデル,すなわち,サーバにおけるData-Agnostic Backdoor attack(DABS)を提案する。
論文 参考訳(メタデータ) (2023-05-02T09:04:34Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - Network-Level Adversaries in Federated Learning [21.222645649379672]
ネットワークレベルの敵がフェデレーション学習モデルの訓練に与える影響について検討する。
攻撃者は、慎重に選択されたクライアントからネットワークトラフィックを落とすことで、ターゲット個体数のモデル精度を著しく低下させることができることを示す。
我々は,攻撃の影響を緩和するサーバサイドディフェンスを開発し,攻撃対象の精度に肯定的に寄与する可能性のあるクライアントを特定し,アップサンプリングすることで,攻撃の影響を緩和する。
論文 参考訳(メタデータ) (2022-08-27T02:42:04Z) - FL-Defender: Combating Targeted Attacks in Federated Learning [7.152674461313707]
フェデレートラーニング(FL)は、グローバル機械学習モデルを、参加する労働者のセット間で分散されたローカルデータから学習することを可能にする。
FLは、学習モデルの完全性に悪影響を及ぼす標的の毒殺攻撃に対して脆弱である。
FL標的攻撃に対抗する手段として,textitFL-Defenderを提案する。
論文 参考訳(メタデータ) (2022-07-02T16:04:46Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - BlockFLA: Accountable Federated Learning via Hybrid Blockchain
Architecture [11.908715869667445]
Federated Learning (FL) は、分散された分散化された機械学習プロトコルである。
FL中、攻撃者が訓練されたモデルにバックドアを注入できることが示されている。
我々は、スマートコントラクトを使用して攻撃者を自動的に検出し、処罰する、ハイブリッドブロックチェーンベースのFLフレームワークを開発した。
論文 参考訳(メタデータ) (2020-10-14T22:43:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。