論文の概要: Benchmarking Reinforcement Learning Techniques for Autonomous Navigation
- arxiv url: http://arxiv.org/abs/2210.04839v1
- Date: Mon, 10 Oct 2022 16:53:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 18:58:26.560147
- Title: Benchmarking Reinforcement Learning Techniques for Autonomous Navigation
- Title(参考訳): 自律ナビゲーションのためのベンチマーク強化学習技術
- Authors: Zifan Xu, Bo Liu, Xuesu Xiao, Anirudh Nair and Peter Stone
- Abstract要約: 深部強化学習(RL)は自律型ロボットナビゲーションに多くの成功をもたらした。
RLベースのナビゲーションシステムの現実的な使用を防ぐ重要な制限がまだ残っている。
- 参考スコア(独自算出の注目度): 41.1337061798188
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep reinforcement learning (RL) has brought many successes for autonomous
robot navigation. However, there still exists important limitations that
prevent real-world use of RL-based navigation systems. For example, most
learning approaches lack safety guarantees; and learned navigation systems may
not generalize well to unseen environments. Despite a variety of recent
learning techniques to tackle these challenges in general, a lack of an
open-source benchmark and reproducible learning methods specifically for
autonomous navigation makes it difficult for roboticists to choose what
learning methods to use for their mobile robots and for learning researchers to
identify current shortcomings of general learning methods for autonomous
navigation. In this paper, we identify four major desiderata of applying deep
RL approaches for autonomous navigation: (D1) reasoning under uncertainty, (D2)
safety, (D3) learning from limited trial-and-error data, and (D4)
generalization to diverse and novel environments. Then, we explore four major
classes of learning techniques with the purpose of achieving one or more of the
four desiderata: memory-based neural network architectures (D1), safe RL (D2),
model-based RL (D2, D3), and domain randomization (D4). By deploying these
learning techniques in a new open-source large-scale navigation benchmark and
real-world environments, we perform a comprehensive study aimed at establishing
to what extent can these techniques achieve these desiderata for RL-based
navigation systems.
- Abstract(参考訳): 深部強化学習(RL)は自律型ロボットナビゲーションに多くの成功をもたらした。
しかし、RLベースのナビゲーションシステムの現実的な使用を阻止する重要な制限がある。
例えば、ほとんどの学習アプローチは安全性の保証を欠いている。
これらの課題に対処するさまざまな学習テクニックにもかかわらず、自律ナビゲーションに特化したオープンソースのベンチマークと再現可能な学習手法が欠如しているため、ロボット工学者は、移動ロボットにどの学習方法を使うかを選択することが難しくなり、研究者は自律ナビゲーションの一般的な学習方法の現在の欠点を識別する。
本稿では,D1)不確実性を考慮した推論,(D2)安全性,(D3)限られた試行錯誤データからの学習,(D4)多種多様な新しい環境への一般化の4つの主要デシラタを同定する。
次に、メモリベースニューラルネットワークアーキテクチャ(D1)、セーフRL(D2)、モデルベースRL(D2,D3)、ドメインランダム化(D4)の4つのデシダータの1つ以上の達成を目的とした、学習技術の4つの主要なクラスを探索する。
新たなオープンソースの大規模ナビゲーションベンチマークと実世界の環境にこれらの学習技術をデプロイすることにより、これらの技術がRLベースのナビゲーションシステムに対してどの程度のデシラタを達成できるかを確定するための総合的研究を行う。
関連論文リスト
- Aquatic Navigation: A Challenging Benchmark for Deep Reinforcement Learning [53.3760591018817]
ゲームエンジンとDeep Reinforcement Learningの統合の最近の進歩を利用して,水上ナビゲーションのための新しいベンチマーク環境を提案する。
具体的には、最も広く受け入れられているアルゴリズムの一つであるPPOに着目し、先進的なトレーニング手法を提案する。
実験により,これらの成分をうまく組み合わせることで,有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2024-05-30T23:20:23Z) - NavCoT: Boosting LLM-Based Vision-and-Language Navigation via Learning
Disentangled Reasoning [101.56342075720588]
Embodied AIの重要な研究課題であるVision-and-Language Navigation (VLN)は、自然言語の指示に従って複雑な3D環境をナビゲートするために、エンボディエージェントを必要とする。
近年の研究では、ナビゲーションの推論精度と解釈可能性を改善することにより、VLNにおける大きな言語モデル(LLM)の有望な能力を強調している。
本稿では,自己誘導型ナビゲーション決定を実現するために,パラメータ効率の高いドメイン内トレーニングを実現する,Navigational Chain-of-Thought (NavCoT) という新しい戦略を提案する。
論文 参考訳(メタデータ) (2024-03-12T07:27:02Z) - Enhanced Low-Dimensional Sensing Mapless Navigation of Terrestrial
Mobile Robots Using Double Deep Reinforcement Learning Techniques [1.191504645891765]
地上移動ロボットのためのマップレスナビゲーションの強化を目的とした2つのアプローチを提案する。
研究手法は主に、DQN(Deep Q-Network)アルゴリズムに基づくDeep-RL戦略と、DQN(Double Deep Q-Network)アルゴリズムに基づく代替アプローチの比較分析を含む。
提案手法は3つの異なる実環境において評価され、Double Deep構造は単純なQ構造に比べて移動ロボットのナビゲーション能力を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-10-20T20:47:07Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Human-Aware Robot Navigation via Reinforcement Learning with Hindsight
Experience Replay and Curriculum Learning [28.045441768064215]
強化学習アプローチは、シーケンシャルな意思決定問題を解決する優れた能力を示している。
本研究では,実演データを使わずにRLエージェントを訓練する作業を検討する。
密集層における最適なナビゲーションポリシーを効率的に学習するために,後視体験リプレイ(HER)とカリキュラム学習(CL)技術をRLに組み込むことを提案する。
論文 参考訳(メタデータ) (2021-10-09T13:18:11Z) - ReLMM: Practical RL for Learning Mobile Manipulation Skills Using Only
Onboard Sensors [64.2809875343854]
ロボットは、ナビゲーションと把握の組み合わせを必要とするスキルを自律的に学習する方法について研究する。
我々のシステムであるReLMMは、環境機器を使わずに、現実世界のプラットフォームで継続的に学習することができる。
グラウンドカリキュラムトレーニングフェーズの後、ReLMMは、現実世界のトレーニングの約40時間で、ナビゲーションと完全に自動的なグリップを学習できる。
論文 参考訳(メタデータ) (2021-07-28T17:59:41Z) - Rule-Based Reinforcement Learning for Efficient Robot Navigation with
Space Reduction [8.279526727422288]
本稿では,強化学習(RL)技術を用いた効率的なナビゲーションに焦点を当てた。
軌道を縮小するために減速ルールを採用し、冗長な探査空間を効果的に削減します。
ヘックスグリッド環境における実際のロボットナビゲーション問題に対する実験は、RuRLが航法性能を向上させることを実証している。
論文 参考訳(メタデータ) (2021-04-15T07:40:27Z) - Towards Deployment of Deep-Reinforcement-Learning-Based Obstacle
Avoidance into Conventional Autonomous Navigation Systems [10.349425078806751]
深層強化学習は、過度に保守的なアプローチを置き換える代替計画方法として登場した。
深層強化学習アプローチは、局所ミニマに対する傾向のため、長距離ナビゲーションには適していません。
本論文では,従来のナビゲーションスタックに深層強化学習に基づくローカルプランナーを組み込んだナビゲーションシステムを提案する。
論文 参考訳(メタデータ) (2021-04-08T08:56:53Z) - Enhanced Adversarial Strategically-Timed Attacks against Deep
Reinforcement Learning [91.13113161754022]
本稿では,DRLに基づくナビゲーションシステムに対して,選択した時間フレーム上の物理ノイズパターンを妨害することにより,タイミングに基づく逆方向戦略を導入する。
実験結果から, 対向タイミング攻撃は性能低下を引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-20T21:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。