論文の概要: Towards Deviation-Robust Agent Navigation via Perturbation-Aware
Contrastive Learning
- arxiv url: http://arxiv.org/abs/2403.05770v1
- Date: Sat, 9 Mar 2024 02:34:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 12:33:35.849612
- Title: Towards Deviation-Robust Agent Navigation via Perturbation-Aware
Contrastive Learning
- Title(参考訳): 摂動認識型コントラスト学習による偏差ロバストエージェントナビゲーション
- Authors: Bingqian Lin, Yanxin Long, Yi Zhu, Fengda Zhu, Xiaodan Liang, Qixiang
Ye, Liang Lin
- Abstract要約: 視覚言語ナビゲーション(VLN)は、エージェントに与えられた言語命令に従って実際の3D環境をナビゲートするように要求する。
本稿では,既存のVLNエージェントの一般化能力を高めるために,PROPER(Progressive Perturbation-aware Contrastive Learning)と呼ばれるモデルに依存しない学習パラダイムを提案する。
- 参考スコア(独自算出の注目度): 125.61772424068903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision-and-language navigation (VLN) asks an agent to follow a given language
instruction to navigate through a real 3D environment. Despite significant
advances, conventional VLN agents are trained typically under disturbance-free
environments and may easily fail in real-world scenarios, since they are
unaware of how to deal with various possible disturbances, such as sudden
obstacles or human interruptions, which widely exist and may usually cause an
unexpected route deviation. In this paper, we present a model-agnostic training
paradigm, called Progressive Perturbation-aware Contrastive Learning (PROPER)
to enhance the generalization ability of existing VLN agents, by requiring them
to learn towards deviation-robust navigation. Specifically, a simple yet
effective path perturbation scheme is introduced to implement the route
deviation, with which the agent is required to still navigate successfully
following the original instruction. Since directly enforcing the agent to learn
perturbed trajectories may lead to inefficient training, a progressively
perturbed trajectory augmentation strategy is designed, where the agent can
self-adaptively learn to navigate under perturbation with the improvement of
its navigation performance for each specific trajectory. For encouraging the
agent to well capture the difference brought by perturbation, a
perturbation-aware contrastive learning mechanism is further developed by
contrasting perturbation-free trajectory encodings and perturbation-based
counterparts. Extensive experiments on R2R show that PROPER can benefit
multiple VLN baselines in perturbation-free scenarios. We further collect the
perturbed path data to construct an introspection subset based on the R2R,
called Path-Perturbed R2R (PP-R2R). The results on PP-R2R show unsatisfying
robustness of popular VLN agents and the capability of PROPER in improving the
navigation robustness.
- Abstract(参考訳): 視覚言語ナビゲーション(VLN)は、エージェントに与えられた言語命令に従って実際の3D環境をナビゲートするように要求する。
大きな進歩にもかかわらず、従来のVLNエージェントは、通常乱れのない環境で訓練され、現実のシナリオでは容易に失敗する可能性がある。
本稿では,既存のVLNエージェントの一般化能力を高めるために,PROPER(Progressive Perturbation-aware Contrastive Learning)と呼ばれるモデルに依存しない学習パラダイムを提案する。
具体的には、経路偏差を実装するために、単純で効果的な経路摂動方式を導入し、エージェントは元の命令に従っても正常に移動する必要がある。
エージェントに直接摂動軌跡を学習させると、非効率な訓練につながる可能性があるため、徐々に摂動軌跡拡大戦略が設計され、エージェントは特定の軌跡に対する航法性能の向上とともに、摂動下で自己適応的に学習することができる。
摂動による差を適切に捉えるために、摂動を含まない軌道エンコーディングと摂動に基づくエンコーディングとの対比により、摂動認識コントラスト学習機構をさらに発展させる。
R2Rの大規模な実験により、Properは摂動のないシナリオにおいて複数のVLNベースラインに利益をもたらすことが示された。
さらに、摂動経路データを収集して、R2R(PP-R2R)と呼ばれるR2Rに基づくイントロスペクションサブセットを構築する。
PP-R2Rの結果は、一般的なVLN剤の不満足なロバスト性および航法ロバスト性向上におけるProperの機能を示している。
関連論文リスト
- Navigating Beyond Instructions: Vision-and-Language Navigation in Obstructed Environments [37.20272055902246]
現実世界のナビゲーションは、しばしばドアや移動した物体、予測不可能な実体などの予期せぬ障害に対処する。
本稿では,Unexpected Obstructions (R2R-UNO)を用いたR2R(R2R-UNO)を提案する。
R2R-UNOの実験では、最先端のVLN手法がこのようなミスマッチに直面した場合、必然的に重大な問題に遭遇し、適応的な操作よりも厳格に指示に従うことが示されている。
論文 参考訳(メタデータ) (2024-07-31T08:55:57Z) - NavCoT: Boosting LLM-Based Vision-and-Language Navigation via Learning
Disentangled Reasoning [101.56342075720588]
Embodied AIの重要な研究課題であるVision-and-Language Navigation (VLN)は、自然言語の指示に従って複雑な3D環境をナビゲートするために、エンボディエージェントを必要とする。
近年の研究では、ナビゲーションの推論精度と解釈可能性を改善することにより、VLNにおける大きな言語モデル(LLM)の有望な能力を強調している。
本稿では,自己誘導型ナビゲーション決定を実現するために,パラメータ効率の高いドメイン内トレーニングを実現する,Navigational Chain-of-Thought (NavCoT) という新しい戦略を提案する。
論文 参考訳(メタデータ) (2024-03-12T07:27:02Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - Bridging the Gap Between Learning in Discrete and Continuous
Environments for Vision-and-Language Navigation [41.334731014665316]
ヴィジュアル・アンド・ランゲージ・ナビゲーション(VLN)における既存の作業のほとんどは、離散的または連続的な環境に焦点を当てている。
ナビゲーション中に候補となるウェイポイントの集合を生成するための予測器を提案する。
予測された経路点を持つ連続環境を航行するエージェントは,低レベル動作を使用するエージェントよりも有意に優れた性能を示す。
論文 参考訳(メタデータ) (2022-03-05T14:56:14Z) - Contrastive Instruction-Trajectory Learning for Vision-Language
Navigation [66.16980504844233]
視覚言語ナビゲーション(VLN)タスクでは、エージェントが自然言語の指示でターゲットに到達する必要がある。
先行研究は、命令-軌道対間の類似点と相違点を識別できず、サブ命令の時間的連続性を無視する。
本稿では、類似したデータサンプル間の分散と、異なるデータサンプル間の分散を探索し、ロバストなナビゲーションのための独特な表現を学習するContrastive Instruction-Trajectory Learningフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-08T06:32:52Z) - Generative Adversarial Imitation Learning for End-to-End Autonomous
Driving on Urban Environments [0.8122270502556374]
GAIL(Generative Adversarial Imitation Learning)は、報酬関数を明示的に定義することなくポリシーを訓練することができる。
両モデルとも,訓練終了後に開始から終了まで,専門家の軌道を模倣できることを示す。
論文 参考訳(メタデータ) (2021-10-16T15:04:13Z) - Adversarial Reinforced Instruction Attacker for Robust Vision-Language
Navigation [145.84123197129298]
自然言語に基づくナビゲーションタスクでは,言語指導が重要な役割を担っている。
より堅牢なナビゲータを訓練し、長い指導から重要な要素を動的に抽出する。
具体的には,航法士が間違った目標に移動することを誤認することを学習する動的強化命令攻撃装置(DR-Attacker)を提案する。
論文 参考訳(メタデータ) (2021-07-23T14:11:31Z) - Language-guided Navigation via Cross-Modal Grounding and Alternate
Adversarial Learning [66.9937776799536]
新たなビジョン・アンド・ランゲージナビゲーション(VLN)問題は、見えない写真リアリスティック環境において、エージェントがターゲットの場所に向かうことを学習することを目的としている。
VLNの主な課題は、主に2つの側面から生じている: まず、エージェントは動的に変化する視覚環境に対応する言語命令の有意義な段落に出席する必要がある。
そこで本稿では,エージェントにテキストと視覚の対応性を追跡する機能を持たせるために,クロスモーダルグラウンドモジュールを提案する。
論文 参考訳(メタデータ) (2020-11-22T09:13:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。