論文の概要: Sensor Control for Information Gain in Dynamic, Sparse and Partially
Observed Environments
- arxiv url: http://arxiv.org/abs/2211.01527v1
- Date: Thu, 3 Nov 2022 00:03:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 12:40:40.898999
- Title: Sensor Control for Information Gain in Dynamic, Sparse and Partially
Observed Environments
- Title(参考訳): ダイナミック・スパース・部分観測環境における情報ゲインのためのセンサ制御
- Authors: J. Brian Burns, Aravind Sundaresan, Pedro Sequeira, Vidyasagar Sadhu
- Abstract要約: 本研究では,部分観測可能,動的,疎密なサンプル環境下での情報収集のための自律型センサ制御手法を提案する。
関心のある空間で部分的な観察を行うセンサを制御することで、その空間に存在する実体に関する情報を最大化する問題を考える。
本稿では,無線周波数(RF)スペクトルモニタリングの課題に対して,環境中の未知のダイナミック信号の探索と追跡を目標とするアプローチについて述べる。
- 参考スコア(独自算出の注目度): 1.5402666674186938
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an approach for autonomous sensor control for information
gathering under partially observable, dynamic and sparsely sampled
environments. We consider the problem of controlling a sensor that makes
partial observations in some space of interest such that it maximizes
information about entities present in that space. We describe our approach for
the task of Radio-Frequency (RF) spectrum monitoring, where the goal is to
search for and track unknown, dynamic signals in the environment. To this end,
we develop and demonstrate enhancements of the Deep Anticipatory Network (DAN)
Reinforcement Learning (RL) framework that uses prediction and information-gain
rewards to learn information-maximization policies in reward-sparse
environments. We also extend this problem to situations in which taking samples
from the actual RF spectrum/field is limited and expensive, and propose a
model-based version of the original RL algorithm that fine-tunes the controller
using a model of the environment that is iteratively improved from limited
samples taken from the RF field. Our approach was thoroughly validated by
testing against baseline expert-designed controllers in simulated RF
environments of different complexity, using different rewards schemes and
evaluation metrics. The results show that our system outperforms the standard
DAN architecture and is more flexible and robust than several hand-coded
agents. We also show that our approach is adaptable to non-stationary
environments where the agent has to learn to adapt to changes from the emitting
sources.
- Abstract(参考訳): 本研究では,部分観測可能,動的,疎密なサンプル環境下での情報収集のための自律型センサ制御手法を提案する。
関心のある空間で部分的な観察を行うセンサを制御することで、その空間に存在する実体に関する情報を最大化する問題を考える。
本稿では,無線周波数(RF)スペクトルモニタリングの課題に対して,環境中の未知のダイナミック信号の探索と追跡を目標とするアプローチについて述べる。
そこで我々は,予測と情報ゲイン報酬を用いて報奨環境における情報最大化ポリシーを学習する,DAN(Deep Precipatory Network)強化学習(Reinforcement Learning, RL)フレームワークを開発した。
また、実際のRFスペクトル/フィールドからのサンプル取得が制限され、コストがかかる状況にまで拡張し、RFフィールドから採取した限られたサンプルから反復的に改善された環境モデルを用いてコントローラを微調整するオリジナルのRLアルゴリズムのモデルベースバージョンを提案する。
提案手法は,異なる複雑性のRF環境において,異なる報酬スキームと評価指標を用いて,ベースラインの専門家設計したコントローラに対して徹底的に検証した。
その結果,本システムは標準的なDANアーキテクチャよりも優れ,手書きエージェントよりも柔軟で堅牢であることがわかった。
また,本手法はエージェントが放出源の変化に適応するために学習しなければならない非定常環境に適用可能であることを示す。
関連論文リスト
- Enhanced Real-Time Threat Detection in 5G Networks: A Self-Attention RNN Autoencoder Approach for Spectral Intrusion Analysis [8.805162150763847]
本稿では,自己認識機構とリカレントニューラルネットワーク(RNN)に基づくオートエンコーダを統合する実験モデルを提案する。
本手法は, 時系列解析, プロセス・イン・フェイズ, および二次(I/Q)サンプルを用いて, ジャミング攻撃の可能性を示す不規則性を同定する。
モデルアーキテクチャは自己アテンション層で拡張され、RNNオートエンコーダの機能を拡張する。
論文 参考訳(メタデータ) (2024-11-05T07:01:15Z) - KFD-NeRF: Rethinking Dynamic NeRF with Kalman Filter [49.85369344101118]
KFD-NeRFは,Kalmanフィルタに基づく効率的かつ高品質な運動再構成フレームワークと統合された,新しい動的ニューラル放射場である。
我々のキーとなる考え方は、動的放射場を、観測と予測という2つの知識源に基づいて時間的に異なる状態が推定される動的システムとしてモデル化することである。
我々のKFD-NeRFは、同等の計算時間と最先端の視線合成性能で、徹底的な訓練を施した類似または優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-18T05:48:24Z) - Physical-Layer Semantic-Aware Network for Zero-Shot Wireless Sensing [74.12670841657038]
デバイスレスワイヤレスセンシングは、幅広い没入型人間機械対話型アプリケーションをサポートする可能性から、近年、大きな関心を集めている。
無線信号におけるデータの均一性と分散センシングにおけるデータプライバシ規制は、広域ネットワークシステムにおける無線センシングの広範な適用を妨げる主要な課題であると考えられている。
そこで本研究では,ラベル付きデータを使わずに,一箇所ないし限られた箇所で構築されたモデルを直接他の場所に転送できるゼロショット無線センシングソリューションを提案する。
論文 参考訳(メタデータ) (2023-12-08T13:50:30Z) - Pervasive Machine Learning for Smart Radio Environments Enabled by
Reconfigurable Intelligent Surfaces [56.35676570414731]
Reconfigurable Intelligent Surfaces(RIS)の新たな技術は、スマート無線環境の実現手段として準備されている。
RISは、無線媒体上の電磁信号の伝搬を動的に制御するための、高度にスケーラブルで低コストで、ハードウェア効率が高く、ほぼエネルギーニュートラルなソリューションを提供する。
このような再構成可能な無線環境におけるRISの密配置に関する大きな課題の1つは、複数の準曲面の効率的な構成である。
論文 参考訳(メタデータ) (2022-05-08T06:21:33Z) - Deep Impulse Responses: Estimating and Parameterizing Filters with Deep
Networks [76.830358429947]
高雑音および地中設定におけるインパルス応答推定は難しい問題である。
本稿では,ニューラル表現学習の最近の進歩に基づいて,インパルス応答のパラメータ化と推定を行う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-07T18:57:23Z) - Bayesian optimization of distributed neurodynamical controller models
for spatial navigation [1.9249287163937971]
我々はニューロシュワームコントローラを導入し、エージェントベースの相互作用を神経ネットワークの相互作用に類似してモデル化する。
この複雑さは、従来のSwarmモデルの研究に一般的に使用される安定性、制御可能性、性能の線形解析を妨げる。
ベイズ最適化に基づく自律型マルチエージェントシステムの動的コントローラモデルをチューニングするためのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-31T21:43:06Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z) - Learning to Continuously Optimize Wireless Resource In Episodically
Dynamic Environment [55.91291559442884]
この研究は、データ駆動型手法が動的環境で継続的に学習し、最適化できる方法論を開発する。
本稿では,無線システム学習のモデリングプロセスに連続学習の概念を構築することを提案する。
我々の設計は、異なるデータサンプル間で「一定の公正性を保証する」新しいmin-maxの定式化に基づいている。
論文 参考訳(メタデータ) (2020-11-16T08:24:34Z) - A Reinforcement Learning based approach for Multi-target Detection in
Massive MIMO radar [12.982044791524494]
本稿では,MMIMO(Multiple input Multiple output)認知レーダ(CR)におけるマルチターゲット検出の問題点について考察する。
本稿では,未知の外乱統計の存在下での認知的マルチターゲット検出のための強化学習(RL)に基づくアルゴリズムを提案する。
定常環境と動的環境の両方において提案したRLアルゴリズムの性能を評価するため, 数値シミュレーションを行った。
論文 参考訳(メタデータ) (2020-05-10T16:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。