論文の概要: Self-Supervised Domain Adaptation for Visual Navigation with Global Map
Consistency
- arxiv url: http://arxiv.org/abs/2110.07184v1
- Date: Thu, 14 Oct 2021 07:14:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 14:37:07.530331
- Title: Self-Supervised Domain Adaptation for Visual Navigation with Global Map
Consistency
- Title(参考訳): グローバルマップ一貫性を持つ視覚ナビゲーションのための自己教師あり領域適応
- Authors: Eun Sun Lee, Junho Kim, and Young Min Kim
- Abstract要約: 本稿では,視覚ナビゲーションエージェントの自己教師型適応手法を提案する。
提案課題は完全に自己監督的であり, 地味なポーズデータや明示的なノイズモデルからの監視は不要である。
実験の結果,提案課題はエージェントが新しいノイズの多い環境への移動を成功させるのに役立つことがわかった。
- 参考スコア(独自算出の注目度): 6.385006149689549
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a light-weight, self-supervised adaptation for a visual navigation
agent to generalize to unseen environment. Given an embodied agent trained in a
noiseless environment, our objective is to transfer the agent to a noisy
environment where actuation and odometry sensor noise is present. Our method
encourages the agent to maximize the consistency between the global maps
generated at different time steps in a round-trip trajectory. The proposed task
is completely self-supervised, not requiring any supervision from ground-truth
pose data or explicit noise model. In addition, optimization of the task
objective is extremely light-weight, as training terminates within a few
minutes on a commodity GPU. Our experiments show that the proposed task helps
the agent to successfully transfer to new, noisy environments. The transferred
agent exhibits improved localization and mapping accuracy, further leading to
enhanced performance in downstream visual navigation tasks. Moreover, we
demonstrate test-time adaptation with our self-supervised task to show its
potential applicability in real-world deployment.
- Abstract(参考訳): そこで本稿では,視覚ナビゲーションエージェントの軽量化と自己教師あり適応を提案する。
無騒音環境下で訓練された具体化エージェントを与えられた場合,アクチュエーションとオドメトリーセンサノイズが存在する雑音環境にエージェントを移すことが目的である。
提案手法は,ラウンドトリップ軌道の異なる時間ステップで生成されたグローバルマップ間の一貫性を最大化する。
提案課題は完全に自己監督的であり, 地味なポーズデータや明示的なノイズモデルからの監視は不要である。
加えて、タスク目標の最適化は非常に軽量であり、トレーニングはコモディティGPU上で数分以内に終了する。
実験の結果,提案課題はエージェントが新しいノイズの多い環境への移動を成功させるのに役立つことがわかった。
転送されたエージェントは、ローカライゼーションとマッピング精度が向上し、さらに下流の視覚ナビゲーションタスクのパフォーマンスが向上する。
さらに,実世界展開における適用可能性を示すために,自己監視タスクによるテスト時間適応を実証する。
関連論文リスト
- Improving Zero-Shot ObjectNav with Generative Communication [60.84730028539513]
ゼロショットObjectNavの改良手法を提案する。
私たちのアプローチは、接地エージェントが制限され、時には障害のあるビューを持つ可能性があることを考慮に入れています。
論文 参考訳(メタデータ) (2024-08-03T22:55:26Z) - Active Sensing with Predictive Coding and Uncertainty Minimization [0.0]
2つの生物学的計算から着想を得たエンボディード探索のためのエンドツーエンドの手法を提案する。
まず,迷路ナビゲーションタスクによるアプローチを実演し,環境の遷移分布と空間的特徴を明らかにする。
本モデルでは,視覚シーンを効率的に分類するための探索によって,教師なし表現を構築する。
論文 参考訳(メタデータ) (2023-07-02T21:14:49Z) - Masked Path Modeling for Vision-and-Language Navigation [41.7517631477082]
ヴィジュアル・アンド・ランゲージ・ナビゲーション(VLN)エージェントは、自然言語の指示に従うことで現実世界の環境をナビゲートするように訓練されている。
以前のアプローチでは、トレーニング中に追加の監督を導入することでこの問題に対処しようと試みていた。
本稿では,下流ナビゲーションタスクに自己コンパイルデータを用いてエージェントを事前訓練する,マスク付きパスモデリング(MPM)手法を提案する。
論文 参考訳(メタデータ) (2023-05-23T17:20:20Z) - Lifelong Unsupervised Domain Adaptive Person Re-identification with
Coordinated Anti-forgetting and Adaptation [127.6168183074427]
本稿では,LUDA (Lifelong Unsupervised Domain Adaptive) という新たなタスクを提案する。
これは、モデルがターゲット環境のラベル付けされていないデータに継続的に適応する必要があるため、難しい。
我々は、CLUDA-ReIDと呼ばれるこのタスクのための効果的なスキームを設計し、そこでは、アンチフォージェッティングが適応と調和して調整される。
論文 参考訳(メタデータ) (2021-12-13T13:19:45Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - Pushing it out of the Way: Interactive Visual Navigation [62.296686176988125]
エージェントが目標に合わせてより効率的にナビゲートするために環境を変更することを学ぶインタラクティブナビゲーションの問題を研究します。
エージェントの行動によって引き起こされる環境の変化を明示的に予測するために,neural interaction engine(nie)を導入する。
計画中の変更をモデル化することで、エージェントがナビゲーション能力を大幅に改善できることが分かりました。
論文 参考訳(メタデータ) (2021-04-28T22:46:41Z) - Embodied Visual Active Learning for Semantic Segmentation [33.02424587900808]
本研究では,エージェントが3次元環境を探索し,視覚シーン理解の獲得を目指す,具体化されたビジュアルアクティブラーニングの課題について検討する。
我々は、学習と事前指定の両方のエージェントのバッテリーを開発し、環境に関する異なるレベルの知識で開発する。
本研究では,matterport3dシミュレータを用いて提案手法を広範囲に評価し,本手法が比較対象よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-17T11:02:34Z) - Integrating Egocentric Localization for More Realistic Point-Goal
Navigation Agents [90.65480527538723]
本研究では,ノイズ行動力学の下での自我行動の視覚的推定に依存するポイントゴールナビゲーションエージェントを開発した。
私たちのエージェントはCVPR 2020 Habitat ChallengeのPointNavトラックのランナーでした。
論文 参考訳(メタデータ) (2020-09-07T16:52:47Z) - Meta Reinforcement Learning with Autonomous Inference of Subtask
Dependencies [57.27944046925876]
本稿では,タスクがサブタスクグラフによって特徴づけられるような,新しい数発のRL問題を提案し,対処する。
メタ政治を直接学習する代わりに、Subtask Graph Inferenceを使ったメタラーナーを開発した。
実験の結果,2つのグリッドワールド領域とStarCraft II環境において,提案手法が潜在タスクパラメータを正確に推定できることが確認された。
論文 参考訳(メタデータ) (2020-01-01T17:34:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。