論文の概要: Offline Reinforcement Learning for Visual Navigation
- arxiv url: http://arxiv.org/abs/2212.08244v1
- Date: Fri, 16 Dec 2022 02:23:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 15:02:43.701134
- Title: Offline Reinforcement Learning for Visual Navigation
- Title(参考訳): 視覚ナビゲーションのためのオフライン強化学習
- Authors: Dhruv Shah, Arjun Bhorkar, Hrish Leen, Ilya Kostrikov, Nick Rhinehart,
Sergey Levine
- Abstract要約: ReViNDは、ロボットナビゲーションのための最初のオフラインRLシステムで、これまで収集されたデータを利用して、現実世界でユーザーが指定した報酬関数を最適化する。
ReViNDは、このデータセットからのオフライントレーニングのみを使用して、遠方の目標にナビゲートできることを示し、ユーザ指定の報酬関数に基づいて、質的に異なる振る舞いを示す。
- 参考スコア(独自算出の注目度): 66.88830049694457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reinforcement learning can enable robots to navigate to distant goals while
optimizing user-specified reward functions, including preferences for following
lanes, staying on paved paths, or avoiding freshly mowed grass. However, online
learning from trial-and-error for real-world robots is logistically
challenging, and methods that instead can utilize existing datasets of robotic
navigation data could be significantly more scalable and enable broader
generalization. In this paper, we present ReViND, the first offline RL system
for robotic navigation that can leverage previously collected data to optimize
user-specified reward functions in the real-world. We evaluate our system for
off-road navigation without any additional data collection or fine-tuning, and
show that it can navigate to distant goals using only offline training from
this dataset, and exhibit behaviors that qualitatively differ based on the
user-specified reward function.
- Abstract(参考訳): 強化学習により、ロボットは、レーンをフォローしたり、舗装された道に留まったり、刈り取ったばかりの草を避けたりといった、ユーザーが指定した報酬関数を最適化しながら、遠くの目標に向かって移動することができる。
しかし、実世界のロボットの試行錯誤によるオンライン学習は、非常に困難であり、代わりに既存のロボットナビゲーションデータのデータセットを活用できる方法は、はるかにスケーラブルで、より広範な一般化を可能にする可能性がある。
本稿では,ロボットナビゲーションのための初のオフラインRLシステムであるReViNDについて述べる。
我々は,データ収集や微調整を伴わずにオフロードナビゲーションシステムを評価し,このデータセットからオフライントレーニングのみを用いて遠隔目標へ移動できることを示し,ユーザ指定の報酬関数に基づいて定性的に異なる行動を示す。
関連論文リスト
- PlaceNav: Topological Navigation through Place Recognition [1.9382079036818822]
そこで我々はPlaceNavを紹介し、ロボットに依存しない部分をナビゲーション固有の汎用コンピュータビジョンコンポーネントに分割する。
トポロジカルナビゲーションパイプラインのサブゴール選択に視覚的位置認識を利用する。
実験の結果,提案手法は室内で76%,屋外ナビゲーションでは23%,計算効率が向上した。
論文 参考訳(メタデータ) (2023-09-29T14:12:54Z) - Avoidance Navigation Based on Offline Pre-Training Reinforcement
Learning [0.0]
本稿では,移動ロボットの地図を使わずに回避ナビゲーションを行うための,事前学習型深部強化学習(DRL)を提案する。
早期の非効率なランダム探索を高速化するために,効率的なオフライン学習戦略を提案する。
DRLモデルは, 異なる環境下で普遍的な汎用能力を有することを示した。
論文 参考訳(メタデータ) (2023-08-03T06:19:46Z) - ViNT: A Foundation Model for Visual Navigation [52.2571739391896]
Visual Navigation Transformer (ViNT) は視覚に基づくロボットナビゲーションの基礎モデルである。
ViNTは、任意のナビゲーションデータセットで使用可能な、汎用的な目標達成目標でトレーニングされている。
特定のデータセットでトレーニングされたスペシャリストモデルよりも優れた、肯定的な転送を示す。
論文 参考訳(メタデータ) (2023-06-26T16:57:03Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - GNM: A General Navigation Model to Drive Any Robot [67.40225397212717]
視覚に基づくナビゲーションのための一般的な目標条件付きモデルは、多くの異なるが構造的に類似したロボットから得られたデータに基づいて訓練することができる。
ロボット間の効率的なデータ共有に必要な設計決定について分析する。
我々は、訓練されたGNMを、下四極子を含む様々な新しいロボットに展開する。
論文 参考訳(メタデータ) (2022-10-07T07:26:41Z) - Visual-Language Navigation Pretraining via Prompt-based Environmental
Self-exploration [83.96729205383501]
本稿では,言語埋め込みの高速適応を実現するために,プロンプトベースの学習を導入する。
我々のモデルは、VLNやREVERIEを含む多様な視覚言語ナビゲーションタスクに適応することができる。
論文 参考訳(メタデータ) (2022-03-08T11:01:24Z) - Human-Aware Robot Navigation via Reinforcement Learning with Hindsight
Experience Replay and Curriculum Learning [28.045441768064215]
強化学習アプローチは、シーケンシャルな意思決定問題を解決する優れた能力を示している。
本研究では,実演データを使わずにRLエージェントを訓練する作業を検討する。
密集層における最適なナビゲーションポリシーを効率的に学習するために,後視体験リプレイ(HER)とカリキュラム学習(CL)技術をRLに組み込むことを提案する。
論文 参考訳(メタデータ) (2021-10-09T13:18:11Z) - ViNG: Learning Open-World Navigation with Visual Goals [82.84193221280216]
視覚的目標達成のための学習に基づくナビゲーションシステムを提案する。
提案手法は,我々がvingと呼ぶシステムが,目標条件強化学習のための提案手法を上回っていることを示す。
我々は、ラストマイル配送や倉庫検査など、現実の多くのアプリケーションでViNGを実演する。
論文 参考訳(メタデータ) (2020-12-17T18:22:32Z) - Embodied Visual Navigation with Automatic Curriculum Learning in Real
Environments [20.017277077448924]
NavACLは、ナビゲーションタスクに適した自動カリキュラム学習の方法である。
NavACLを用いて訓練した深層強化学習剤は、均一サンプリングで訓練した最先端エージェントよりも有意に優れていた。
我々のエージェントは、未知の乱雑な屋内環境から、RGB画像のみを使用して意味的に特定されたターゲットへ移動することができる。
論文 参考訳(メタデータ) (2020-09-11T13:28:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。