論文の概要: Goal-Guided Transformer-Enabled Reinforcement Learning for Efficient
Autonomous Navigation
- arxiv url: http://arxiv.org/abs/2301.00362v2
- Date: Sun, 24 Sep 2023 15:25:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 04:23:36.671594
- Title: Goal-Guided Transformer-Enabled Reinforcement Learning for Efficient
Autonomous Navigation
- Title(参考訳): 自律ナビゲーションのための目標誘導変圧器を用いた強化学習
- Authors: Wenhui Huang, Yanxin Zhou, Xiangkun He, and Chen Lv
- Abstract要約: 本稿ではゴール誘導ナビゲーションのためのゴール誘導トランスフォーマー対応強化学習(GTRL)手法を提案する。
本手法は,DRL学習プロセスのデータ効率を大幅に向上させる,主にゴール関連機能に焦点を当てたシーン表現の動機付けである。
データ効率, 性能, 堅牢性, および sim-to-real 一般化の観点から, シミュレーションと実世界の実験結果の両方が, 我々のアプローチの優位性を示している。
- 参考スコア(独自算出の注目度): 15.501449762687148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite some successful applications of goal-driven navigation, existing deep
reinforcement learning (DRL)-based approaches notoriously suffers from poor
data efficiency issue. One of the reasons is that the goal information is
decoupled from the perception module and directly introduced as a condition of
decision-making, resulting in the goal-irrelevant features of the scene
representation playing an adversary role during the learning process. In light
of this, we present a novel Goal-guided Transformer-enabled reinforcement
learning (GTRL) approach by considering the physical goal states as an input of
the scene encoder for guiding the scene representation to couple with the goal
information and realizing efficient autonomous navigation. More specifically,
we propose a novel variant of the Vision Transformer as the backbone of the
perception system, namely Goal-guided Transformer (GoT), and pre-train it with
expert priors to boost the data efficiency. Subsequently, a reinforcement
learning algorithm is instantiated for the decision-making system, taking the
goal-oriented scene representation from the GoT as the input and generating
decision commands. As a result, our approach motivates the scene representation
to concentrate mainly on goal-relevant features, which substantially enhances
the data efficiency of the DRL learning process, leading to superior navigation
performance. Both simulation and real-world experimental results manifest the
superiority of our approach in terms of data efficiency, performance,
robustness, and sim-to-real generalization, compared with other
state-of-the-art (SOTA) baselines. The demonstration video
(https://www.youtube.com/watch?v=aqJCHcsj4w0) and the source code
(https://github.com/OscarHuangWind/DRL-Transformer-SimtoReal-Navigation) are
also provided.
- Abstract(参考訳): 目標駆動ナビゲーションが成功したにもかかわらず、既存の深層強化学習(drl)ベースのアプローチは、データ効率の問題で悪名高い。
理由の1つは、目標情報が認識モジュールから切り離され、意思決定の条件として直接導入されるため、学習プロセス中に相手役を演じるシーン表現のゴール関連の特徴が生じることである。
そこで,本稿では,シーン表現を目標情報に結合し,効率的な自律ナビゲーションを実現するシーンエンコーダの入力として,物理的目標状態を考慮し,新たな目標誘導型トランスフォーマブル強化学習(gtrl)手法を提案する。
より具体的には、視覚トランスフォーマーを知覚システムのバックボーンとして、すなわち目標誘導トランスフォーマー(got)として提案する。
その後、意思決定システムのために強化学習アルゴリズムをインスタンス化し、gotから目標指向のシーン表現を入力とし、決定コマンドを生成する。
その結果,本手法は,DRL学習プロセスのデータ効率を大幅に向上させ,より優れたナビゲーション性能を実現するために,主にゴール関連機能に焦点を当てたシーン表現を動機付けている。
データ効率, 性能, 堅牢性, および sim-to-real generalization の観点から, シミュレーションおよび実世界の実験結果は, 他のSOTA(State-of-the-art)ベースラインと比較して, 我々のアプローチの優位性を示している。
デモビデオ(https://www.youtube.com/watch?v=aqJCHcsj4w0)とソースコード(https://github.com/OscarHuangWind/DRL-Transformer-SimtoReal-Navigation)も提供される。
関連論文リスト
- Causality-Aware Transformer Networks for Robotic Navigation [13.719643934968367]
Visual Navigationの現在の研究は、改善の機会を明らかにしている。
RNNとTransformerの直接的な採用はしばしば、Embodied AIと従来のシーケンシャルなデータモデリングの具体的な違いを見落としている。
因果理解モジュールを特徴とするナビゲーション用因果認識変換器(CAT)ネットワークを提案する。
論文 参考訳(メタデータ) (2024-09-04T12:53:26Z) - Intrinsic Dynamics-Driven Generalizable Scene Representations for Vision-Oriented Decision-Making Applications [0.21051221444478305]
シーン表現の能力をいかに向上させるかは、ビジョン指向の意思決定アプリケーションにおいて重要な問題である。
視覚強化学習におけるシーケンスモデルを用いた固有ダイナミクス駆動表現学習法を提案する。
論文 参考訳(メタデータ) (2024-05-30T06:31:03Z) - Vision-and-Language Navigation Generative Pretrained Transformer [0.0]
VLN-GPT(Vision-and-Language Navigation Generative Pretrained Transformer)
トランスフォーマーデコーダモデル(GPT2)を採用してトラジェクトリシーケンスの依存関係をモデル化し、歴史的エンコーディングモジュールの必要性を回避している。
VLNデータセットのパフォーマンス評価は、VLN-GPTが複雑な最先端エンコーダベースモデルを上回ることを示している。
論文 参考訳(メタデータ) (2024-05-27T09:42:04Z) - NoMaD: Goal Masked Diffusion Policies for Navigation and Exploration [57.15811390835294]
本稿では,目標指向ナビゲーションと目標非依存探索の両方を扱うために,単一の統合拡散政策をトレーニングする方法について述べる。
この統一された政策は、新しい環境における目標を視覚的に示す際に、全体的な性能が向上することを示す。
実世界の移動ロボットプラットフォーム上で実施した実験は,5つの代替手法と比較して,見えない環境における効果的なナビゲーションを示す。
論文 参考訳(メタデータ) (2023-10-11T21:07:14Z) - KERM: Knowledge Enhanced Reasoning for Vision-and-Language Navigation [61.08389704326803]
VLN(Vision-and-Language Navigation)は、実シーンにおける自然言語命令に続く遠隔地への移動を可能にするタスクである。
以前のアプローチのほとんどは、ナビゲート可能な候補を表現するために、機能全体やオブジェクト中心の機能を利用している。
本稿では,知識を活用したエージェントナビゲーション能力向上のための知識強化推論モデル(KERM)を提案する。
論文 参考訳(メタデータ) (2023-03-28T08:00:46Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - Unsupervised Domain Adaptation for Video Transformers in Action
Recognition [76.31442702219461]
ビデオ行動認識のためのシンプルで斬新なUDA手法を提案する。
私たちのアプローチでは、ターゲットドメインをより一般化した堅牢なソースモデルを構築しています。
UDAのための2つのビデオアクションベンチマークの認識結果について報告する。
論文 参考訳(メタデータ) (2022-07-26T12:17:39Z) - INFOrmation Prioritization through EmPOWERment in Visual Model-Based RL [90.06845886194235]
モデルベース強化学習(RL)のための修正目的を提案する。
相互情報に基づく状態空間モデルに,変分エンパワーメントにインスパイアされた用語を統合する。
本研究は,視覚に基づくロボット制御作業における自然な映像背景を用いたアプローチの評価である。
論文 参考訳(メタデータ) (2022-04-18T23:09:23Z) - TRAIL: Near-Optimal Imitation Learning with Suboptimal Data [100.83688818427915]
オフラインデータセットを使用してファクタードトランジションモデルを学習するトレーニング目標を提案する。
我々の理論的分析は、学習された潜在行動空間が下流模倣学習のサンプル効率を高めることを示唆している。
実際に潜伏行動空間を学習するために、エネルギーベースの遷移モデルを学ぶアルゴリズムTRAIL(Transition-Reparametrized Actions for Imitation Learning)を提案する。
論文 参考訳(メタデータ) (2021-10-27T21:05:00Z) - MaAST: Map Attention with Semantic Transformersfor Efficient Visual
Navigation [4.127128889779478]
この作業は、自律エージェントの視覚ナビゲーションのための既存の学習ベースのソリューションよりも良く、または匹敵するパフォーマンスに重点を置いています。
本稿では,重要シーンのセマンティクスを意味的に理解し,トップダウンのエゴセントリックな地図表現にエンコードする手法を提案する。
本研究では,3次元再構成した屋内ポイントゴーア視覚ナビゲーション実験を行い,その効果を実証する。
論文 参考訳(メタデータ) (2021-03-21T12:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。