論文の概要: How to Combat Reactive and Dynamic Jamming Attacks with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2510.02265v1
- Date: Thu, 02 Oct 2025 17:44:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.265227
- Title: How to Combat Reactive and Dynamic Jamming Attacks with Reinforcement Learning
- Title(参考訳): 強化学習によるリアクティブおよび動的ジャミング攻撃の回避方法
- Authors: Yalin E. Sagduyu, Tugba Erpek, Kemal Davaslioglu, Sastry Kompella,
- Abstract要約: 本稿では, ジャマーがチャネル選択の動的ポリシーと検知しきい値を採用し, 進行中の送信を検知・妨害する, 反応性ジャミングを緩和する問題について検討する。
送信機-受信機ペアは、送信電力、変調、チャネル選択に適応するために強化学習(RL)を用いることで、ジャミングを回避し、時間とともにスループットを最適化する。
- 参考スコア(独自算出の注目度): 7.510555203834326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the problem of mitigating reactive jamming, where a jammer adopts a dynamic policy of selecting channels and sensing thresholds to detect and jam ongoing transmissions. The transmitter-receiver pair learns to avoid jamming and optimize throughput over time (without prior knowledge of channel conditions or jamming strategies) by using reinforcement learning (RL) to adapt transmit power, modulation, and channel selection. Q-learning is employed for discrete jamming-event states, while Deep Q-Networks (DQN) are employed for continuous states based on received power. Through different reward functions and action sets, the results show that RL can adapt rapidly to spectrum dynamics and sustain high rates as channels and jamming policies change over time.
- Abstract(参考訳): 本稿では, ジャマーがチャネル選択の動的ポリシーと検知しきい値を採用し, 進行中の送信を検知・妨害する, 反応性ジャミングを緩和する問題について検討する。
送信機-受信機ペアは、送信電力、変調、チャネル選択に適応するために強化学習(RL)を用いることで、時間とともに(チャネル条件や妨害戦略の事前知識を使わずに)スループットを最適化する。
Q-ラーニングは離散的なジャミング・イベント状態に、Deep Q-Networks (DQN) は受信電力に基づいて連続状態に使用される。
異なる報酬関数とアクションセットを通じて、RLはスペクトル力学に迅速に適応し、チャネルとして高いレートを保ち、時間とともにポリシーが変わることを示す。
関連論文リスト
- Efficient Test-time Adaptive Object Detection via Sensitivity-Guided Pruning [73.40364018029673]
連続的なテスト時間適応オブジェクト検出(CTTA-OD)は、源となる事前訓練された検出器を常に変化する環境にオンライン適応させることを目的としている。
私たちのモチベーションは、学習したすべての特徴が有益であるとは限らないという観察に起因しています。
FLOPの計算オーバヘッドを12%削減し,優れた適応性を実現する。
論文 参考訳(メタデータ) (2025-06-03T05:27:56Z) - ViaRL: Adaptive Temporal Grounding via Visual Iterated Amplification Reinforcement Learning [68.76048244253582]
ビデオ理解におけるフレーム選択の最適化にルールベース強化学習(RL)を利用する最初のフレームワークであるViaRLを紹介する。
ViaRLは、下流モデルの応答精度を報奨信号として利用し、試行錯誤によってフレームセレクタを訓練する。
ViaRLは、多様なビデオ理解タスクに対して、時間的基盤性能と堅牢な一般化を一貫して提供します。
論文 参考訳(メタデータ) (2025-05-21T12:29:40Z) - Fast Adaptive Anti-Jamming Channel Access via Deep Q Learning and Coarse-Grained Spectrum Prediction [13.4498936010732]
本稿では,複雑で未知のジャミング環境におけるアンチジャミングチャネルアクセス問題について検討する。
固定パターンを用いた従来のチャネルホッピングアンチジャミングアプローチは、動的ジャミング攻撃に対して効果がない。
ジャマーよりも学習の直感に導かれる高速適応型アンチ・ジャミング・チャンネル・アクセス・アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-07T14:25:28Z) - Reinforcement Learning Based Goodput Maximization with Quantized Feedback in URLLC [25.794259368427277]
本研究では、受信機が送信機に量子化されたチャネル状態情報を提供する通信システムについて検討する。
本稿では,フィードバックスキームを最適化するために,新たなRician-$K$係数推定手法を提案する。
論文 参考訳(メタデータ) (2025-01-19T22:37:55Z) - Offline Reinforcement Learning and Sequence Modeling for Downlink Link Adaptation [3.687363450234871]
リンク適応(LA)は、現代の無線通信システムにおいて欠かせない機能である。
LAは、通信リンクの伝送速度を時間変化および周波数変化の無線リンク条件に合わせるように動的に調整する。
近年の研究では、より一般的なルールベースのアルゴリズムの代替として、オンライン強化学習アプローチが導入されている。
論文 参考訳(メタデータ) (2024-10-30T14:01:31Z) - Diffusion Policies creating a Trust Region for Offline Reinforcement Learning [66.17291150498276]
本稿では,拡散信頼型Q-Learning (DTQL) という2つの政策アプローチを導入する。
DTQLは、トレーニングと推論の両方において反復的なデノレーションサンプリングの必要性を排除し、計算的に極めて効率的である。
DTQLは、D4RLベンチマークタスクの大部分において、他のメソッドよりも優れているだけでなく、トレーニングや推論速度の効率性も示すことができる。
論文 参考訳(メタデータ) (2024-05-30T05:04:33Z) - Actor-Critic Scheduling for Path-Aware Air-to-Ground Multipath
Multimedia Delivery [5.01187288554981]
Actor-Critic (AC) RLアルゴリズムに基づくマルチパスシステムにおけるリアルタイムマルチメディア配信のための新しいスケジューラを提案する。
RLエージェントとして機能するスケジューラは、経路選択、経路レート割り当て、フロー保護のための冗長性推定のための最適ポリシーをリアルタイムで学習する。
論文 参考訳(メタデータ) (2022-04-28T08:28:25Z) - Reinforcement Learning for Deceiving Reactive Jammers in Wireless
Networks [76.82565500647323]
投石機を標的チャネルに攻撃させるという考え方に基づいて, 新規な投石防止戦略を提案する。
ジャマーのチャネル情報はユーザには知られていないため、最適なチャネル選択スキームとサブ最適電力割当が提案されている。
シミュレーションの結果,提案手法は,比較したrlベース抗ジャミング法とランダム探索法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-25T18:12:41Z) - Accelerating Deep Reinforcement Learning With the Aid of Partial Model:
Energy-Efficient Predictive Video Streaming [97.75330397207742]
深層強化学習を用いて,モバイルネットワーク上でのエネルギー効率の高いビデオストリーミングのための予測電力割り当てを考案した。
連続状態と行動空間を扱うために、我々はDeep Deterministic Policy gradient (DDPG)アルゴリズムを利用する。
シミュレーションの結果,提案手法は完全大規模チャネル予測に基づいて導出される最適方針に収束することが示された。
論文 参考訳(メタデータ) (2020-03-21T17:36:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。