論文の概要: Learning View and Target Invariant Visual Servoing for Navigation
- arxiv url: http://arxiv.org/abs/2003.02327v1
- Date: Wed, 4 Mar 2020 20:36:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 13:46:16.072707
- Title: Learning View and Target Invariant Visual Servoing for Navigation
- Title(参考訳): ナビゲーションのための学習ビューとターゲット不変ビジュアルサーボ
- Authors: Yimeng Li, Jana Kosecka
- Abstract要約: ローカルな移動ロボットナビゲーションのための視点不変と目標不変の視覚サーボを学習する。
我々は、目的を達成するために深層畳み込みネットワークコントローラを訓練する。
- 参考スコア(独自算出の注目度): 9.873635079670093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advances in deep reinforcement learning recently revived interest in
data-driven learning based approaches to navigation. In this paper we propose
to learn viewpoint invariant and target invariant visual servoing for local
mobile robot navigation; given an initial view and the goal view or an image of
a target, we train deep convolutional network controller to reach the desired
goal. We present a new architecture for this task which rests on the ability of
establishing correspondences between the initial and goal view and novel reward
structure motivated by the traditional feedback control error. The advantage of
the proposed model is that it does not require calibration and depth
information and achieves robust visual servoing in a variety of environments
and targets without any parameter fine tuning. We present comprehensive
evaluation of the approach and comparison with other deep learning
architectures as well as classical visual servoing methods in visually
realistic simulation environment. The presented model overcomes the brittleness
of classical visual servoing based methods and achieves significantly higher
generalization capability compared to the previous learning approaches.
- Abstract(参考訳): 深層強化学習の進歩は、最近、データ駆動学習に基づくナビゲーションへの関心を復活させた。
本稿では,局所移動ロボットナビゲーションにおける視点不変性と目標不変の視覚サーボを学習し,初期ビューと目標ビュー,あるいは目標の画像から,目的を達成するために深層畳み込みネットワークコントローラを訓練する。
本稿では,初期視点と目標視点の対応関係を確立する能力と,従来のフィードバック制御誤差による新たな報酬構造を両立させる新しいアーキテクチャを提案する。
提案モデルの利点は,キャリブレーションや深度情報を必要とせず,パラメータの微調整を伴わずに,様々な環境やターゲットにおいて堅牢なビジュアルサーボを実現することである。
視覚的シミュレーション環境における従来のビジュアルサーボ手法と同様に,アプローチの包括的評価と他のディープラーニングアーキテクチャとの比較を行った。
提案モデルでは,従来のビジュアルサーボ手法の脆さを克服し,従来の学習手法に比べて高い一般化能力を実現する。
関連論文リスト
- Bootstrapping Top-down Information for Self-modulating Slot Attention [29.82550058869251]
トップダウン経路を組み込んだ新しいOCLフレームワークを提案する。
この経路は個々のオブジェクトのセマンティクスをブートストラップし、モデルを変更してこれらのセマンティクスに関連する特徴を優先順位付けする。
我々のフレームワークは、複数の合成および実世界のオブジェクト発見ベンチマークにまたがって最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-11-04T05:00:49Z) - Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Learning Object-Centric Representation via Reverse Hierarchy Guidance [73.05170419085796]
OCL(Object-Centric Learning)は、ニューラルネットワークが視覚的なシーンで個々のオブジェクトを識別できるようにする。
RHGNetは、トレーニングと推論プロセスにおいて、さまざまな方法で機能するトップダウンパスを導入している。
我々のモデルは、よく使われる複数のデータセット上でSOTA性能を達成する。
論文 参考訳(メタデータ) (2024-05-17T07:48:27Z) - Aligning Knowledge Graph with Visual Perception for Object-goal Navigation [16.32780793344835]
オブジェクトゴールナビゲーションのための視覚知覚付きアライニング知識グラフ(AKGVP)を提案する。
提案手法では,階層型シーンアーキテクチャの連続的モデリングを導入し,自然言語記述と視覚知覚との整合性を確保するために,視覚-言語事前学習を活用する。
継続的知識グラフアーキテクチャとマルチモーダル機能アライメントの統合により、ナビゲータは目覚ましいゼロショットナビゲーション能力を持つ。
論文 参考訳(メタデータ) (2024-02-29T06:31:18Z) - Interactive Semantic Map Representation for Skill-based Visual Object
Navigation [43.71312386938849]
本稿では,室内環境との相互作用にともなうシーンセマンティックマップの表現について紹介する。
我々はこの表現をSkillTronと呼ばれる本格的なナビゲーション手法に実装した。
提案手法により,ロボット探索の中間目標とオブジェクトナビゲーションの最終目標の両方を形成できる。
論文 参考訳(メタデータ) (2023-11-07T16:30:12Z) - How To Not Train Your Dragon: Training-free Embodied Object Goal
Navigation with Semantic Frontiers [94.46825166907831]
Embodied AIにおけるオブジェクトゴールナビゲーション問題に対処するためのトレーニング不要のソリューションを提案する。
本手法は,古典的な視覚的同時ローカライゼーションとマッピング(V-SLAM)フレームワークに基づく,構造化されたシーン表現を構築する。
本手法は,言語先行情報とシーン統計に基づいてシーングラフのセマンティクスを伝搬し,幾何学的フロンティアに意味知識を導入する。
論文 参考訳(メタデータ) (2023-05-26T13:38:33Z) - Rethinking Range View Representation for LiDAR Segmentation [66.73116059734788]
「多対一」マッピング、意味的不整合、形状変形は、射程射影からの効果的な学習に対する障害となる可能性がある。
RangeFormerは、ネットワークアーキテクチャ、データ拡張、後処理を含む新しい設計を含む、フルサイクルのフレームワークである。
比較対象のLiDARセマンティックスとパノプティックスセグメンテーションのベンチマークにおいて,初めてレンジビュー法が点,ボクセル,マルチビューフュージョンを越えられることを示す。
論文 参考訳(メタデータ) (2023-03-09T16:13:27Z) - Goal-Guided Transformer-Enabled Reinforcement Learning for Efficient
Autonomous Navigation [15.501449762687148]
本稿ではゴール誘導ナビゲーションのためのゴール誘導トランスフォーマー対応強化学習(GTRL)手法を提案する。
本手法は,DRL学習プロセスのデータ効率を大幅に向上させる,主にゴール関連機能に焦点を当てたシーン表現の動機付けである。
データ効率, 性能, 堅牢性, および sim-to-real 一般化の観点から, シミュレーションと実世界の実験結果の両方が, 我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2023-01-01T07:14:30Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z) - Object Goal Navigation using Goal-Oriented Semantic Exploration [98.14078233526476]
本研究は,未確認環境における対象カテゴリーのインスタンスにナビゲートするオブジェクトゴールナビゲーションの問題を研究する。
本稿では,表層的なセマンティックマップを構築し,効率的に環境を探索する「ゴール指向セマンティック探索」というモジュールシステムを提案する。
論文 参考訳(メタデータ) (2020-07-01T17:52:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。