論文の概要: When is Cognitive Radar Beneficial?
- arxiv url: http://arxiv.org/abs/2212.00597v1
- Date: Thu, 1 Dec 2022 15:49:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 17:58:04.311576
- Title: When is Cognitive Radar Beneficial?
- Title(参考訳): 認知レーダーはいつ有効か?
- Authors: Charles E. Thornton and R. Michael Buehrer
- Abstract要約: オンライン強化学習に基づくアジャイル認知レーダーは、いつ、ルールベースの適応波形選択戦略を上回ることを期待できるだろうか?
より現実的なチャネル仮定では、学習に基づくアプローチはより一般化する能力を示す。
適切に特定された短時間の時間-水平問題に対しては、収束時間に固有の制限があるため、機械学習アプローチは性能が悪くなる可能性がある。
- 参考スコア(独自算出の注目度): 10.772161254015389
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When should an online reinforcement learning-based frequency agile cognitive
radar be expected to outperform a rule-based adaptive waveform selection
strategy? We seek insight regarding this question by examining a dynamic
spectrum access scenario, in which the radar wishes to transmit in the widest
unoccupied bandwidth during each pulse repetition interval. Online learning is
compared to a fixed rule-based sense-and-avoid strategy. We show that given a
simple Markov channel model, the problem can be examined analytically for
simple cases via stochastic dominance. Additionally, we show that for more
realistic channel assumptions, learning-based approaches demonstrate greater
ability to generalize. However, for short time-horizon problems that are
well-specified, we find that machine learning approaches may perform poorly due
to the inherent limitation of convergence time. We draw conclusions as to when
learning-based approaches are expected to be beneficial and provide guidelines
for future study.
- Abstract(参考訳): オンライン強化学習に基づくアジャイル認知レーダーは、いつ、ルールベースの適応波形選択戦略を上回ることを期待できるだろうか?
本研究では,各パルス繰り返し間隔において,レーダーが最広帯域の伝送を希望するダイナミックスペクトルアクセスシナリオを検討することにより,この問題に対する洞察を求める。
オンライン学習は、固定されたルールベースの感覚・回避戦略と比較される。
単純マルコフチャネルモデルが与えられた場合,この問題は確率的支配によって解析的に検証できることを示す。
さらに,より現実的なチャネル仮定では,学習に基づくアプローチがより一般化できることを示す。
しかし、適切に特定された短時間の時間-水平問題では、収束時間に固有の制限があるため、機械学習アプローチは性能が悪くなる可能性がある。
学習に基づくアプローチがいつ有用になるかという結論を導き,今後の研究のガイドラインを提供する。
関連論文リスト
- A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Online Optimization for Learning to Communicate over Time-Correlated Channels [36.042709241525706]
本研究では,時間関連チャネル上でのコミュニケーション学習におけるオンライン最適化問題について検討する。
楽観的なオンラインミラー降下フレームワークに基づく2つのオンライン最適化アルゴリズムを開発した。
提案手法は,学習システムの予測誤差確率に基づいて線形後悔を導出することで理論的に保証する。
論文 参考訳(メタデータ) (2024-09-01T01:28:53Z) - Efficient Exploration in Continuous-time Model-based Reinforcement
Learning [37.14026153342745]
強化学習アルゴリズムは典型的には離散時間力学を考察するが、基礎となるシステムは時間的に連続していることが多い。
連続時間力学を表すモデルに基づく強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-30T15:04:40Z) - OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning [67.07363529640784]
提案するOpenSTLは,一般的なアプローチを再帰的モデルと再帰的モデルに分類する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
論文 参考訳(メタデータ) (2023-06-20T03:02:14Z) - Temporal Label Smoothing for Early Prediction of Adverse Events [0.0]
興味ある事象に近接する関数として滑らかな強度を調節する新しい学習戦略であるTLSを提案する。
本手法は, 偽アラーム率の低いイベントリコールなどの臨床関連指標の性能を著しく向上させる。
論文 参考訳(メタデータ) (2022-08-29T17:58:48Z) - Online Bayesian Meta-Learning for Cognitive Tracking Radar [9.805913930878]
波形・アジャイル追跡のためのオンラインメタラーニング手法を開発した。
我々は、ターゲットタイプやクラッタなどの一般的な物理要素に起因する、トラッキングシーン間の固有の類似性を生かしている。
論文 参考訳(メタデータ) (2022-07-07T20:21:54Z) - Imitating, Fast and Slow: Robust learning from demonstrations via
decision-time planning [96.72185761508668]
テストタイムでの計画(IMPLANT)は、模倣学習のための新しいメタアルゴリズムである。
IMPLANTは,標準制御環境において,ベンチマーク模倣学習手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-04-07T17:16:52Z) - Knowledge-driven Active Learning [70.37119719069499]
アクティブな学習戦略は、ディープラーニングモデルをトレーニングするために必要なラベル付きデータの量を最小限にすることを目的としている。
ほとんどの積極的な戦略は不確実なサンプルの選択に基づいており、しばしば決定境界に近いサンプルに制限される。
本稿では、一般的なドメイン知識を考慮し、エキスパートでないユーザがより少ないサンプルでモデルを訓練できるようにする。
論文 参考訳(メタデータ) (2021-10-15T06:11:53Z) - On the Theory of Reinforcement Learning with Once-per-Episode Feedback [120.5537226120512]
本稿では,エピソード終盤に一度だけフィードバックを受ける強化学習の理論を紹介する。
これは、学習者が毎回フィードバックを受け取るという従来の要件よりも、現実世界のアプリケーションの代表的です。
論文 参考訳(メタデータ) (2021-05-29T19:48:51Z) - Reannealing of Decaying Exploration Based On Heuristic Measure in Deep
Q-Network [82.20059754270302]
本稿では,再熱処理の概念に基づくアルゴリズムを提案し,必要なときにのみ探索を促進することを目的とする。
我々は、訓練を加速し、より良い政策を得る可能性を示す実証的なケーススタディを実施している。
論文 参考訳(メタデータ) (2020-09-29T20:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。