論文の概要: A reinforcement learning path planning approach for range-only
underwater target localization with autonomous vehicles
- arxiv url: http://arxiv.org/abs/2301.06863v1
- Date: Tue, 17 Jan 2023 13:16:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 14:10:33.324450
- Title: A reinforcement learning path planning approach for range-only
underwater target localization with autonomous vehicles
- Title(参考訳): 自律走行車を用いた距離限定水中目標位置定位のための強化学習経路計画手法
- Authors: Ivan Masmitja, Mario Martin, Kakani Katija, Spartacus Gomariz, Joan
Navarro
- Abstract要約: ROSBターゲットローカライゼーション法では, 目標位置の最適精度を得るためには, 目標位置付近の追尾車の軌道が重要な役割を果たす。
そこで本研究では,自動運転車が追従すべき最適経路を見つけるための強化学習(RL)手法について検討し,予測対象の局所化の全体的な精度を向上し,最適化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Underwater target localization using range-only and single-beacon (ROSB)
techniques with autonomous vehicles has been used recently to improve the
limitations of more complex methods, such as long baseline and ultra-short
baseline systems. Nonetheless, in ROSB target localization methods, the
trajectory of the tracking vehicle near the localized target plays an important
role in obtaining the best accuracy of the predicted target position. Here, we
investigate a Reinforcement Learning (RL) approach to find the optimal path
that an autonomous vehicle should follow in order to increase and optimize the
overall accuracy of the predicted target localization, while reducing time and
power consumption. To accomplish this objective, different experimental tests
have been designed using state-of-the-art deep RL algorithms. Our study also
compares the results obtained with the analytical Fisher information matrix
approach used in previous studies. The results revealed that the policy learned
by the RL agent outperforms trajectories based on these analytical solutions,
e.g. the median predicted error at the beginning of the target's localisation
is 17% less. These findings suggest that using deep RL for localizing acoustic
targets could be successfully applied to in-water applications that include
tracking of acoustically tagged marine animals by autonomous underwater
vehicles. This is envisioned as a first necessary step to validate the use of
RL to tackle such problems, which could be used later on in a more complex
scenarios
- Abstract(参考訳): 長距離ベースラインや超短距離ベースラインシステムといった,より複雑な手法の限界を改善するために,自律走行車を用いたレンジオンリーおよびシングルビーコン(ROSB)技術を用いた水中ターゲットローカライゼーションが最近行われている。
それにもかかわらず、rosb目標定位法において、局所目標付近の追跡車両の軌道は、予測された目標位置の最良の精度を得る上で重要な役割を果たす。
本稿では,目標位置推定の全体的な精度を向上・最適化し,時間と消費電力を削減すべく,自律走行車両が従うべき最適経路を求めるための強化学習(rl)手法を検討する。
この目的を達成するために、最先端の深部RLアルゴリズムを用いて様々な実験実験が設計されている。
本研究は,前回の研究で用いたフィッシャー情報行列分析手法との比較も行っている。
その結果、RLエージェントが学習したポリシは、これらの解析解に基づいてトラジェクトリを上回り、例えば、ターゲットの局所化の開始時の中央値予測誤差は17%減少した。
これらの結果から, 音響目標の局所化に深部RLを用いることで, 水中の自律走行車による海洋生物の追跡を含む水中適用に有効であることが示唆された。
これは、そのような問題に対処するためのRLの使用を検証するための最初の必要なステップとして考えられている。
関連論文リスト
- Truncating Trajectories in Monte Carlo Policy Evaluation: an Adaptive Approach [51.76826149868971]
モンテカルロシミュレーションによる政策評価は多くのMC強化学習(RL)アルゴリズムの中核にある。
本研究では,異なる長さの軌跡を用いた回帰推定器の平均二乗誤差のサロゲートとして品質指標を提案する。
本稿では,Robust and Iterative Data Collection Strategy Optimization (RIDO) という適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-17T11:47:56Z) - Integrating Saliency Ranking and Reinforcement Learning for Enhanced Object Detection [0.08192907805418582]
本研究では、強化学習(RL)に基づく視覚的注意法と給与ランキング技術を組み合わせた一連の実験について検討する。
この研究で得られた平均精度(mAP)は51.4で、RLをベースとした単体検出器のベンチマークを上回りました。
論文 参考訳(メタデータ) (2024-08-13T10:46:42Z) - Demystifying the Physics of Deep Reinforcement Learning-Based Autonomous Vehicle Decision-Making [6.243971093896272]
本稿では,ベースラインモデルとしてポリシー最適化に基づくDRLアルゴリズムを用い,オープンソースのAVシミュレーション環境にマルチヘッドアテンションフレームワークを付加する。
第1頭部の重みは隣接する車両の位置を符号化し、第2頭部は先頭車両のみに焦点を当てている。
論文 参考訳(メタデータ) (2024-03-18T02:59:13Z) - Data-efficient Deep Reinforcement Learning for Vehicle Trajectory
Control [6.144517901919656]
強化学習(RL)は、古典的なアプローチよりも優れた制御性能を達成することを約束する。
SAC(Soft-actor critic)のような標準RLアプローチでは、大量のトレーニングデータを収集する必要がある。
近年開発されたディープRL法を車両軌道制御に適用した。
論文 参考訳(メタデータ) (2023-11-30T09:38:59Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Simplifying Model-based RL: Learning Representations, Latent-space
Models, and Policies with One Objective [142.36200080384145]
自己整合性を維持しつつ高いリターンを達成するために,潜在空間モデルとポリシーを協調的に最適化する単一目的を提案する。
得られたアルゴリズムは, モデルベースおよびモデルフリーRL手法のサンプル効率に適合するか, 改善することを示した。
論文 参考訳(メタデータ) (2022-09-18T03:51:58Z) - Benchmarking Safe Deep Reinforcement Learning in Aquatic Navigation [78.17108227614928]
本研究では,水文ナビゲーションに着目した安全強化学習のためのベンチマーク環境を提案する。
価値に基づく政策段階の深層強化学習(DRL)について考察する。
また,学習したモデルの振る舞いを所望の特性の集合上で検証する検証戦略を提案する。
論文 参考訳(メタデータ) (2021-12-16T16:53:56Z) - Adversarial Intrinsic Motivation for Reinforcement Learning [60.322878138199364]
政策状態の訪問分布と目標分布とのワッサースタイン-1距離が強化学習タスクに有効に活用できるかどうかを検討する。
我々のアプローチは、AIM (Adversarial Intrinsic Motivation) と呼ばれ、このワッサーシュタイン-1距離をその双対目的を通して推定し、補足報酬関数を計算する。
論文 参考訳(メタデータ) (2021-05-27T17:51:34Z) - Reinforcement Learning for Low-Thrust Trajectory Design of
Interplanetary Missions [77.34726150561087]
本稿では, 惑星間軌道のロバスト設計における強化学習の適用について検討する。
最先端アルゴリズムのオープンソース実装が採用されている。
その結果得られた誘導制御ネットワークは、堅牢な名目的軌道と関連する閉ループ誘導法の両方を提供する。
論文 参考訳(メタデータ) (2020-08-19T15:22:15Z) - Reinforcement Learning for UAV Autonomous Navigation, Mapping and Target
Detection [36.79380276028116]
本研究では,無人航空機(UAV)に低高度レーダーを装備し,未知の環境下での飛行における共同検出・マッピング・ナビゲーション問題について検討する。
目的は、マッピング精度を最大化する目的で軌道を最適化することであり、目標検出の観点からは、測定が不十分な領域を避けることである。
論文 参考訳(メタデータ) (2020-05-05T20:39:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。