論文の概要: SHANGUS: Deep Reinforcement Learning Meets Heuristic Optimization for Speedy Frontier-Based Exploration of Autonomous Vehicles in Unknown Spaces
- arxiv url: http://arxiv.org/abs/2407.18892v1
- Date: Fri, 26 Jul 2024 17:42:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-29 12:39:55.428300
- Title: SHANGUS: Deep Reinforcement Learning Meets Heuristic Optimization for Speedy Frontier-Based Exploration of Autonomous Vehicles in Unknown Spaces
- Title(参考訳): SHANGUS: 未知の空間における高速フロンティアに基づく自律走行車探索のためのヒューリスティックな最適化を実現する深層強化学習
- Authors: Seunghyeop Nam, Tuan Anh Nguyen, Eunmi Choi, Dugki Min,
- Abstract要約: SHANGUSは、Deep Reinforcement Learning(DRL)と最適化を組み合わせたフレームワークで、フロンティアベースの探索効率を改善する。
このフレームワークは、産業自動化、自律運転、家庭用ロボット工学、宇宙探査などの分野におけるリアルタイムの自律ナビゲーションに適している。
- 参考スコア(独自算出の注目度): 1.8749305679160366
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces SHANGUS, an advanced framework combining Deep Reinforcement Learning (DRL) with heuristic optimization to improve frontier-based exploration efficiency in unknown environments, particularly for intelligent vehicles in autonomous air services, search and rescue operations, and space exploration robotics. SHANGUS harnesses DRL's adaptability and heuristic prioritization, markedly enhancing exploration efficiency, reducing completion time, and minimizing travel distance. The strategy involves a frontier selection node to identify unexplored areas and a DRL navigation node using the Twin Delayed Deep Deterministic Policy Gradient (TD3) algorithm for robust path planning and dynamic obstacle avoidance. Extensive experiments in ROS2 and Gazebo simulation environments show SHANGUS surpasses representative traditional methods like the Nearest Frontier (NF), Novel Frontier-Based Exploration Algorithm (CFE), and Goal-Driven Autonomous Exploration (GDAE) algorithms, especially in complex scenarios, excelling in completion time, travel distance, and exploration rate. This scalable solution is suitable for real-time autonomous navigation in fields such as industrial automation, autonomous driving, household robotics, and space exploration. Future research will integrate additional sensory inputs and refine heuristic functions to further boost SHANGUS's efficiency and robustness.
- Abstract(参考訳): 本稿では,深層強化学習(DRL)とヒューリスティック最適化を組み合わせた高度フレームワークであるSHANGUSを紹介する。
シャングスはDRLの適応性とヒューリスティックな優先順位付けを活用し、探索効率を著しく向上し、完了時間を短縮し、旅行距離を最小化している。
この戦略は、探索されていない領域を識別するフロンティア選択ノードと、ロバストパス計画と動的障害物回避のためのTwin Delayed Deep Deterministic Policy Gradient (TD3)アルゴリズムを用いたDRLナビゲーションノードを含む。
ROS2 と Gazebo のシミュレーション環境での大規模な実験は、SHANGUS がNF (Nearest Frontier) や New Frontier-Based Exploration Algorithm (CFE) や Goal-Driven Self Exploration (GDAE) アルゴリズムなど、特に複雑なシナリオにおいて、特に完了時間、旅行距離、探索速度などにおいて、代表的手法を超越していることを示している。
このスケーラブルなソリューションは、産業自動化、自律運転、家庭用ロボティクス、宇宙探査といった分野におけるリアルタイムの自律ナビゲーションに適している。
将来の研究は、SHANGUSの効率性と堅牢性をさらに向上するために、追加の感覚入力とヒューリスティック機能を統合する予定である。
関連論文リスト
- FrontierNet: Learning Visual Cues to Explore [54.8265603996238]
この研究は、3Dマップからゴールポーズを抽出する制限に対処するため、効率的な自律探索に2Dビジュアルキューを活用することを目的としている。
本研究では,FrontierNetをコアコンポーネントとする画像のみのフロンティア探索システムを提案する。
提案手法は既存の3次元探査システムに代わるもので,早期探査効率が16%向上した。
論文 参考訳(メタデータ) (2025-01-08T16:25:32Z) - D5RL: Diverse Datasets for Data-Driven Deep Reinforcement Learning [99.33607114541861]
ロボット操作と移動環境の現実的なシミュレーションに焦点を当てたオフラインRLのための新しいベンチマークを提案する。
提案するベンチマークでは、状態ベースドメインと画像ベースドメインを対象とし、オフラインRLとオンライン微調整評価の両方をサポートしている。
論文 参考訳(メタデータ) (2024-08-15T22:27:00Z) - OTO Planner: An Efficient Only Travelling Once Exploration Planner for Complex and Unknown Environments [6.128246045267511]
オンリートラベル・ワン・プランナー」は複雑な環境下で繰り返し経路を減少させる効率的な探索プランナーである。
高速フロンティア更新、視点評価、視点改善が含まれる。
探査時間と移動距離を10%から20%削減し、フロンティア検出の速度を6~9倍向上させる。
論文 参考訳(メタデータ) (2024-06-11T14:23:48Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - Learning-Augmented Model-Based Planning for Visual Exploration [8.870188183999854]
学習型モデルベースプランニングを用いた新しい探索手法を提案する。
室内シーンの視覚センシングとセマンティックマッピングの進歩が活用される。
提案手法は,2.1%,RLに基づく探査手法8.4%を網羅的に上回っている。
論文 参考訳(メタデータ) (2022-11-15T04:53:35Z) - AirDet: Few-Shot Detection without Fine-tuning for Autonomous
Exploration [16.032316550612336]
本稿では,支援画像とのクラス関係の学習による微調整が不要なAirDetを提案する。
AirDetは、徹底的に微調整された方法と同等またはそれ以上の結果を達成し、ベースラインで最大40~60%の改善を実現している。
DARPA潜水試験における実地探査実験の評価結果について述べる。
論文 参考訳(メタデータ) (2021-12-03T06:41:07Z) - Successor Feature Landmarks for Long-Horizon Goal-Conditioned
Reinforcement Learning [54.378444600773875]
大規模で高次元の環境を探索するフレームワークであるSFL(Successor Feature Landmarks)を紹介する。
SFLは、状態のノベルティを推定して探索を推進し、状態空間を非パラメトリックなランドマークベースのグラフとして抽象化することで、高レベルな計画を可能にする。
我々は,MiniGrid と ViZDoom の実験において,SFL が大規模高次元状態空間の効率的な探索を可能にすることを示す。
論文 参考訳(メタデータ) (2021-11-18T18:36:05Z) - Focus on Impact: Indoor Exploration with Intrinsic Motivation [45.97756658635314]
そこで本研究では,純粋に本質的な報酬信号を用いたモデルによる探索指導を提案する。
ニューラルベース密度モデルを含み、従来のカウントベースの正規化を、以前に訪れた状態の擬似数で置き換える。
また,提案手法を取り入れたロボットが,ポイントゴールナビゲーションや実世界展開にシームレスに適応することを示す。
論文 参考訳(メタデータ) (2021-09-14T18:00:07Z) - Rule-Based Reinforcement Learning for Efficient Robot Navigation with
Space Reduction [8.279526727422288]
本稿では,強化学習(RL)技術を用いた効率的なナビゲーションに焦点を当てた。
軌道を縮小するために減速ルールを採用し、冗長な探査空間を効果的に削減します。
ヘックスグリッド環境における実際のロボットナビゲーション問題に対する実験は、RuRLが航法性能を向上させることを実証している。
論文 参考訳(メタデータ) (2021-04-15T07:40:27Z) - Occupancy Anticipation for Efficient Exploration and Navigation [97.17517060585875]
そこで我々は,エージェントが自我中心のRGB-D観測を用いて,その占有状態を可視領域を超えて推定する,占有予測を提案する。
エゴセントリックなビューとトップダウンマップの両方でコンテキストを活用することで、私たちのモデルは環境のより広いマップを予測できます。
われわれのアプローチは、2020 Habitat PointNav Challengeの優勝だ。
論文 参考訳(メタデータ) (2020-08-21T03:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。