論文の概要: Near-Driven Autonomous Rover Navigation in Complex Environments: Extensions to Urban Search-and-Rescue and Industrial Inspection
- arxiv url: http://arxiv.org/abs/2504.17794v1
- Date: Fri, 11 Apr 2025 20:00:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 01:46:36.905392
- Title: Near-Driven Autonomous Rover Navigation in Complex Environments: Extensions to Urban Search-and-Rescue and Industrial Inspection
- Title(参考訳): 複合環境における近接駆動型自律ローバーナビゲーション:都市検索・救助・産業検査への拡張
- Authors: Dhadkan Shrestha, Lincoln Bhattarai,
- Abstract要約: 本稿では、危険タスクに関連する動的環境における自律型ロボットに対する、NEAT(NeuroEvolution of Augmenting Topologies)に基づく、拡張型神経進化的アプローチについて検討する。
NEATに進化したコントローラは、最先端の深層強化学習手法に匹敵する成功率を達成し、優れた構造適応性を持つ。
また,タスク間の伝達学習の利点を強調し,複雑な3次元ナビゲーションにおけるNEATの有効性を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the use of an extended neuroevolutionary approach, based on NeuroEvolution of Augmenting Topologies (NEAT), for autonomous robots in dynamic environments associated with hazardous tasks like firefighting, urban search-and-rescue (USAR), and industrial inspections. Building on previous research, it expands the simulation environment to larger and more complex settings, demonstrating NEAT's adaptability across different applications. By integrating recent advancements in NEAT and reinforcement learning, the study uses modern simulation frameworks for realism and hybrid algorithms for optimization. Experimental results show that NEAT-evolved controllers achieve success rates comparable to state-of-the-art deep reinforcement learning methods, with superior structural adaptability. The agents reached ~80% success in outdoor tests, surpassing baseline models. The paper also highlights the benefits of transfer learning among tasks and evaluates the effectiveness of NEAT in complex 3D navigation. Contributions include evaluating NEAT for diverse autonomous applications and discussing real-world deployment considerations, emphasizing the approach's potential as an alternative or complement to deep reinforcement learning in autonomous navigation tasks.
- Abstract(参考訳): 本稿では,NuroEvolution of Augmenting Topologies(NEAT)に基づく,消防,都市検索・救助(USAR),産業検査などの危険タスクに関連する動的環境における自律型ロボットの利用について検討する。
以前の研究に基づいて、シミュレーション環境をより大きく、より複雑な設定に拡張し、NEATの異なるアプリケーションへの適応性を実証した。
NEATと強化学習の最近の進歩を統合することで、現代のシミュレーションフレームワークをリアリズムに、ハイブリッドアルゴリズムを最適化に利用した。
実験結果から, NEATに進化した制御器は, 最先端の深層強化学習法に匹敵する成功率を達成し, 優れた構造適応性を示した。
エージェントはアウトドアテストで約80%成功し、ベースラインモデルを上回った。
また,タスク間の伝達学習の利点を強調し,複雑な3次元ナビゲーションにおけるNEATの有効性を評価する。
貢献には、多様な自律的アプリケーションに対するNEATの評価や、実際のデプロイメントの考慮事項の議論、自律的なナビゲーションタスクにおける代替手段としてのアプローチの可能性、あるいは深い強化学習の補完などが含まれる。
関連論文リスト
- Training a Generally Curious Agent [86.84089201249104]
PAPRIKAは,言語モデルによる一般的な意思決定機能の開発を可能にする微調整手法である。
PAPRIKAで微調整されたモデルは、学習した意思決定能力を全く見えないタスクに効果的に移行できることを示す実験結果が得られた。
これらの結果は、新しいシーケンシャルな意思決定問題を自律的に解決できるAIシステムへの有望な道のりを示唆している。
論文 参考訳(メタデータ) (2025-02-24T18:56:58Z) - Vision-Based Deep Reinforcement Learning of UAV Autonomous Navigation Using Privileged Information [6.371251946803415]
DPRLは、部分的に観測可能な環境下での高速無人無人飛行の課題に対処するために設計されたエンドツーエンドのポリシーである。
非対称なアクター・クライブアーキテクチャを利用して、トレーニング中にエージェントに特権情報を提供する。
我々は、DPRLアルゴリズムを最先端のナビゲーションアルゴリズムと比較し、様々なシナリオにまたがって広範なシミュレーションを行う。
論文 参考訳(メタデータ) (2024-12-09T09:05:52Z) - Research on Autonomous Robots Navigation based on Reinforcement Learning [13.559881645869632]
我々は、経路計画と意思決定プロセスを最適化するために、Deep Q Network (DQN) と Proximal Policy Optimization (PPO) モデルを使用します。
様々な複雑なシナリオにおいて,これらのモデルの有効性とロバスト性を検証した。
論文 参考訳(メタデータ) (2024-07-02T00:44:06Z) - Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - Octopus: Embodied Vision-Language Programmer from Environmental Feedback [58.04529328728999]
身体視覚言語モデル(VLM)は多モード認識と推論において大きな進歩を遂げた。
このギャップを埋めるために、我々は、計画と操作を接続する媒体として実行可能なコード生成を使用する、具体化された視覚言語プログラマであるOctopusを紹介した。
Octopusは、1)エージェントの視覚的およびテキスト的タスクの目的を正確に理解し、2)複雑なアクションシーケンスを定式化し、3)実行可能なコードを生成するように設計されている。
論文 参考訳(メタデータ) (2023-10-12T17:59:58Z) - Karolos: An Open-Source Reinforcement Learning Framework for Robot-Task
Environments [0.3867363075280544]
強化学習(RL)研究において、シミュレーションはアルゴリズム間のベンチマークを可能にする。
本稿では,ロボット応用のためのフレームワークであるKarolosを紹介する。
コードはオープンソースでGitHubに公開されており、ロボット工学におけるRLアプリケーションの研究を促進することを目的としている。
論文 参考訳(メタデータ) (2022-12-01T23:14:02Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - Multi-Agent Simulation for AI Behaviour Discovery in Operations Research [0.9137554315375919]
ACE0は、マルチエージェントシミュレーションにおける行動発見のためのAIメソッドの適合性と生存性を評価するプラットフォームである。
本稿では, システムアーキテクチャの技術的概要, 航空宇宙領域における行動発見の事例研究, システムの質的評価について述べる。
論文 参考訳(メタデータ) (2021-08-30T15:14:06Z) - Online reinforcement learning with sparse rewards through an active
inference capsule [62.997667081978825]
本稿では,将来期待される新しい自由エネルギーを最小化するアクティブ推論エージェントを提案する。
我々のモデルは、非常に高いサンプル効率でスパース・リワード問題を解くことができる。
また、複雑な目的の表現を単純化する報奨関数から事前モデルを近似する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-04T10:03:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。