論文の概要: Depth-Constrained ASV Navigation with Deep RL and Limited Sensing
- arxiv url: http://arxiv.org/abs/2504.18253v1
- Date: Fri, 25 Apr 2025 10:56:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.745596
- Title: Depth-Constrained ASV Navigation with Deep RL and Limited Sensing
- Title(参考訳): 深部RLと限定センシングを用いた深部拘束型ASVナビゲーション
- Authors: Amirhossein Zhalehmehrabi, Daniele Meli, Francesco Dal Santo, Francesco Trotti, Alessandro Farinelli,
- Abstract要約: 本研究では,深度制約下でのASVナビゲーションのための強化学習フレームワークを提案する。
環境意識を高めるため,GPレグレッションをRLフレームワークに統合する。
我々は,実世界の水環境に対して,訓練された政策が適切に一般化されることを保証する効果的なシミュレート・トゥ・リアル・トランスファーを実証する。
- 参考スコア(独自算出の注目度): 45.77464360746532
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous Surface Vehicles (ASVs) play a crucial role in maritime operations, yet their navigation in shallow-water environments remains challenging due to dynamic disturbances and depth constraints. Traditional navigation strategies struggle with limited sensor information, making safe and efficient operation difficult. In this paper, we propose a reinforcement learning (RL) framework for ASV navigation under depth constraints, where the vehicle must reach a target while avoiding unsafe areas with only a single depth measurement per timestep from a downward-facing Single Beam Echosounder (SBES). To enhance environmental awareness, we integrate Gaussian Process (GP) regression into the RL framework, enabling the agent to progressively estimate a bathymetric depth map from sparse sonar readings. This approach improves decision-making by providing a richer representation of the environment. Furthermore, we demonstrate effective sim-to-real transfer, ensuring that trained policies generalize well to real-world aquatic conditions. Experimental results validate our method's capability to improve ASV navigation performance while maintaining safety in challenging shallow-water environments.
- Abstract(参考訳): オートマチック・サーフェス・ビークル (ASV) は海洋活動において重要な役割を担っているが、浅海域での航行は、ダイナミックな乱れや深度制約のために困難である。
従来のナビゲーション戦略はセンサー情報に限られており、安全かつ効率的な操作を困難にしている。
本稿では,下向きのSingle Beam Echosounder (SBES) からのタイムステップ毎の1回の深度測定のみを回避しながら,車両が目標に到達しなければならない深度制約下でのASVナビゲーションのための強化学習(RL)フレームワークを提案する。
環境意識を高めるため,我々はガウス過程(GP)回帰をRLフレームワークに統合し,スパースソナー読解から潜水深度マップを段階的に推定する。
このアプローチは環境のより豊かな表現を提供することによって意思決定を改善する。
さらに,実世界の水文条件に対して,訓練された政策が適切に一般化されることを保証し,効果的なシミュレート・トゥ・リアル・トランスファーを実証する。
実験により,浅瀬環境における安全を維持しつつ,ASV航法性能を向上させる手法の有効性を検証した。
関連論文リスト
- Vision-Based Deep Reinforcement Learning of UAV Autonomous Navigation Using Privileged Information [6.371251946803415]
DPRLは、部分的に観測可能な環境下での高速無人無人飛行の課題に対処するために設計されたエンドツーエンドのポリシーである。
非対称なアクター・クライブアーキテクチャを利用して、トレーニング中にエージェントに特権情報を提供する。
我々は、DPRLアルゴリズムを最先端のナビゲーションアルゴリズムと比較し、様々なシナリオにまたがって広範なシミュレーションを行う。
論文 参考訳(メタデータ) (2024-12-09T09:05:52Z) - Evaluating Robustness of Reinforcement Learning Algorithms for Autonomous Shipping [2.9109581496560044]
本稿では,自律型海運シミュレータにおける内陸水路輸送(IWT)のために実装されたベンチマークディープ強化学習(RL)アルゴリズムのロバスト性について検討する。
モデルのないアプローチはシミュレーターで適切なポリシーを達成でき、訓練中に遭遇したことのないポート環境をナビゲートすることに成功した。
論文 参考訳(メタデータ) (2024-11-07T17:55:07Z) - Deep-Sea A*+: An Advanced Path Planning Method Integrating Enhanced A* and Dynamic Window Approach for Autonomous Underwater Vehicles [1.3807821497779342]
深海環境における極度の環境は、水中での作戦に重大な課題をもたらす。
改良されたA*アルゴリズムと動的ウィンドウアプローチ(DWA)を統合した高度な経路計画手法を提案する。
提案手法は,経路の滑らかさ,障害物回避,リアルタイム性能の観点から,従来のA*アルゴリズムを超越した手法である。
論文 参考訳(メタデータ) (2024-10-22T07:29:05Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - EnCoMP: Enhanced Covert Maneuver Planning with Adaptive Threat-Aware Visibility Estimation using Offline Reinforcement Learning [0.6597195879147555]
本研究では,多様な屋外環境下でロボットが隠ぺいにナビゲートできるように改良されたナビゲーションフレームワークであるEnCoMPを提案する。
我々は、LiDAR点雲からカバーマップ、潜在的な脅威マップ、高さマップ、ゴールマップを含む高忠実度マルチマップ表現を生成する。
物理的ジャカルロボット上での手法の能力を実証し,多様な地形で実験を行った。
論文 参考訳(メタデータ) (2024-03-29T07:03:10Z) - VAPOR: Legged Robot Navigation in Outdoor Vegetation Using Offline
Reinforcement Learning [53.13393315664145]
本研究では,非構造で密集した屋外環境における自律脚ロボットナビゲーションのための新しい手法であるVAPORを提案する。
本手法は,アクター・クリティカル・ネットワークと実際の屋外植生で収集された任意のデータを用いて,新しいRLポリシーを訓練する。
VAPORの動作は成功率を最大40%向上させ、平均電流消費量を最大2.9%削減し、正規化軌道長を最大11.2%削減する。
論文 参考訳(メタデータ) (2023-09-14T16:21:27Z) - Aeolus Ocean -- A simulation environment for the autonomous
COLREG-compliant navigation of Unmanned Surface Vehicles using Deep
Reinforcement Learning and Maritime Object Detection [0.0]
海上部門における無人水上機(USV)の航行自律性は、より安全な水と運用コストの削減につながる可能性がある。
本稿では, 現実的な海洋シミュレーション環境において, COLREG 準拠の DRL を用いた衝突回避航法システムの開発について述べる。
論文 参考訳(メタデータ) (2023-07-13T11:20:18Z) - Confidence-Controlled Exploration: Efficient Sparse-Reward Policy Learning for Robot Navigation [72.24964965882783]
強化学習(RL)はロボットナビゲーションにおいて有望なアプローチであり、ロボットは試行錯誤を通じて学習することができる。
現実世界のロボットタスクは、しばしばまばらな報酬に悩まされ、非効率な探索と準最適政策に繋がる。
本稿では,RLに基づくロボットナビゲーションにおいて,報酬関数を変更せずにサンプル効率を向上させる新しい手法であるConfidence-Controlled Exploration (CCE)を紹介する。
論文 参考訳(メタデータ) (2023-06-09T18:45:15Z) - ETPNav: Evolving Topological Planning for Vision-Language Navigation in
Continuous Environments [56.194988818341976]
視覚言語ナビゲーションは、エージェントが環境中をナビゲートするための指示に従う必要があるタスクである。
本研究では,1)環境を抽象化し,長距離航法計画を生成する能力,2)連続環境における障害物回避制御能力の2つの重要なスキルに焦点を当てたETPNavを提案する。
ETPNavは、R2R-CEとRxR-CEデータセットの先行技術よりも10%以上、20%改善されている。
論文 参考訳(メタデータ) (2023-04-06T13:07:17Z) - Benchmarking Safe Deep Reinforcement Learning in Aquatic Navigation [78.17108227614928]
本研究では,水文ナビゲーションに着目した安全強化学習のためのベンチマーク環境を提案する。
価値に基づく政策段階の深層強化学習(DRL)について考察する。
また,学習したモデルの振る舞いを所望の特性の集合上で検証する検証戦略を提案する。
論文 参考訳(メタデータ) (2021-12-16T16:53:56Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。