論文の概要: Coordinated Anti-Jamming Resilience in Swarm Networks via Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2512.16813v1
- Date: Thu, 18 Dec 2025 17:54:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.188104
- Title: Coordinated Anti-Jamming Resilience in Swarm Networks via Multi-Agent Reinforcement Learning
- Title(参考訳): マルチエージェント強化学習によるSwarmネットワークにおける協調的アンチジャミング抵抗性
- Authors: Bahman Abolhassani, Tugba Erpek, Kemal Davaslioglu, Yalin E. Sagduyu, Sastry Kompella,
- Abstract要約: 反応性ジャムマーは、エージェント間通信を選択的に破壊することにより、ロボット・スワムネットワークに深刻なセキュリティ脅威をもたらす。
固定電力制御や静的チャネルホッピングのような従来の対策は、このような適応的な敵に対してほとんど効果がない。
本稿では,QMIXアルゴリズムに基づくマルチエージェント強化学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 8.533838668681737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reactive jammers pose a severe security threat to robotic-swarm networks by selectively disrupting inter-agent communications and undermining formation integrity and mission success. Conventional countermeasures such as fixed power control or static channel hopping are largely ineffective against such adaptive adversaries. This paper presents a multi-agent reinforcement learning (MARL) framework based on the QMIX algorithm to improve the resilience of swarm communications under reactive jamming. We consider a network of multiple transmitter-receiver pairs sharing channels while a reactive jammer with Markovian threshold dynamics senses aggregate power and reacts accordingly. Each agent jointly selects transmit frequency (channel) and power, and QMIX learns a centralized but factorizable action-value function that enables coordinated yet decentralized execution. We benchmark QMIX against a genie-aided optimal policy in a no-channel-reuse setting, and against local Upper Confidence Bound (UCB) and a stateless reactive policy in a more general fading regime with channel reuse enabled. Simulation results show that QMIX rapidly converges to cooperative policies that nearly match the genie-aided bound, while achieving higher throughput and lower jamming incidence than the baselines, thereby demonstrating MARL's effectiveness for securing autonomous swarms in contested environments.
- Abstract(参考訳): 反応性ジャマーは、エージェント間通信を選択的に破壊し、構成の整合性とミッションの成功を損なうことによって、ロボットと監視ネットワークに深刻なセキュリティ脅威をもたらす。
固定電力制御や静的チャネルホッピングのような従来の対策は、このような適応的な敵に対してほとんど効果がない。
本稿では,QMIXアルゴリズムに基づくマルチエージェント強化学習(MARL)フレームワークを提案する。
マルコフしきい値のダイナミックスを持つ反応性ジャムマーは、集約力を感知し、それに応じて反応する。
各エージェントは、送信周波数(チャネル)と電力を共同で選択し、QMIXは、コーディネートされているが非集中的な実行を可能にする集中的だが分解可能なアクション値関数を学習する。
我々はQMIXを、非チャネル再利用環境でのジェニーエイド最適ポリシーと、ローカルなアッパー信頼境界(UCB)と、チャネル再利用を有効にしたより一般的なフェード方式のステートレス・リアクティブ・ポリシーに対してベンチマークする。
シミュレーションの結果,QMIX は相反する協調政策に急速に収束し,ベースラインよりも高いスループットと妨害率を達成し,競合環境における自律群集の確保に MARL の有効性を示した。
関連論文リスト
- Multi-Agent Deep Reinforcement Learning for Collaborative UAV Relay Networks under Jamming Atatcks [36.380478794869234]
本稿では,この課題を,分散実行トレーニング(CTDE)フレームワークを用いて解決したMARL(Multi-Agent Reinforcement Learning)問題として定式化する。
提案手法はベースラインを著しく上回り,システム全体のスループットを約50%向上し,同時にほぼゼロの衝突速度を実現した。
重要な発見は、エージェントが明示的なプログラミングなしに創発的なアンチジャミング戦略を開発することである。
論文 参考訳(メタデータ) (2025-12-09T08:11:21Z) - SecDiff: Diffusion-Aided Secure Deep Joint Source-Channel Coding Against Adversarial Attacks [73.41290017870097]
SecDiffは、プラグイン・アンド・プレイの拡散支援デコーディングフレームワークである。
対向無線環境下での深部JSCCの安全性と堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2025-11-03T11:24:06Z) - When UAV Swarm Meets IRS: Collaborative Secure Communications in Low-altitude Wireless Networks [68.45202147860537]
低高度無線ネットワーク (LAWN) は、多様なアプリケーションに対して、拡張されたカバレッジ、信頼性、スループットを提供する。
これらのネットワークは、既知のおよび潜在的に未知の盗聴者の両方から重大なセキュリティ上の脆弱性に直面している。
本稿では,Swarm内で選択されたUAVを仮想アンテナアレイとして機能させる,LAWNのための新しいセキュア通信フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-25T02:02:14Z) - STAR-RIS-assisted Collaborative Beamforming for Low-altitude Wireless Networks [58.13757830013997]
無人航空機(UAV)に基づく無線ネットワークは、都市コミュニケーションに高いモビリティ、柔軟性、カバーを提供する。
閉塞により、密集した環境では信号の減衰が激しい。
この重要な問題に対処するために、UAVの協調ビームの導入と全方向逆方向ビームフォーミングについて検討する。
論文 参考訳(メタデータ) (2025-10-25T01:28:37Z) - How to Combat Reactive and Dynamic Jamming Attacks with Reinforcement Learning [7.510555203834326]
本稿では, ジャマーがチャネル選択の動的ポリシーと検知しきい値を採用し, 進行中の送信を検知・妨害する, 反応性ジャミングを緩和する問題について検討する。
送信機-受信機ペアは、送信電力、変調、チャネル選択に適応するために強化学習(RL)を用いることで、ジャミングを回避し、時間とともにスループットを最適化する。
論文 参考訳(メタデータ) (2025-10-02T17:44:38Z) - Heterogeneous Multi-Agent Reinforcement Learning for Distributed Channel Access in WLANs [47.600901884970845]
本稿では,マルチエージェント強化学習(MARL)を用いて,無線ローカルネットワークにおける分散チャネルアクセスに対処する。
特に、エージェントがモデルトレーニングに価値ベースまたはポリシーベースの強化学習アルゴリズムを不均一に採用する、より実践的なケースについて考察する。
我々は、分散実行パラダイムを用いた集中型トレーニングを採用し、異種エージェントの協調を可能にする、異種MARLトレーニングフレームワークQPMIXを提案する。
論文 参考訳(メタデータ) (2024-12-18T13:50:31Z) - Distributed Autonomous Swarm Formation for Dynamic Network Bridging [40.27919181139919]
離散化された部分観測可能なマルコフ決定過程(Dec-POMDP)における動的ネットワークブリッジ問題について定式化する。
グラフ畳み込み強化学習(DGN)に基づく問題に対するマルチエージェント強化学習(MARL)アプローチを提案する。
提案手法はシミュレーション環境で評価し,将来性を示す集中型ベースラインと比較した。
論文 参考訳(メタデータ) (2024-04-02T01:45:03Z) - Optimal Power Allocation for Rate Splitting Communications with Deep
Reinforcement Learning [61.91604046990993]
このレターでは、レート分割多重アクセスネットワークにおいて、ユーザの電力割り当てを最適化するための新しいフレームワークを紹介します。
ネットワークでは、ユーザのために意図されたメッセージは、単一の共通部分と個々のプライベート部分に分割される。
論文 参考訳(メタデータ) (2021-07-01T06:32:49Z) - Monotonic Value Function Factorisation for Deep Multi-Agent
Reinforcement Learning [55.20040781688844]
QMIXは、中央集権的なエンドツーエンドで分散ポリシーをトレーニングできる新しい価値ベースの手法である。
深層多エージェント強化学習のための新しいベンチマークとして,StarCraft Multi-Agent Challenge (SMAC)を提案する。
論文 参考訳(メタデータ) (2020-03-19T16:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。