論文の概要: Polyline Based Generative Navigable Space Segmentation for Autonomous
Visual Navigation
- arxiv url: http://arxiv.org/abs/2111.00063v1
- Date: Fri, 29 Oct 2021 19:50:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 16:56:36.917478
- Title: Polyline Based Generative Navigable Space Segmentation for Autonomous
Visual Navigation
- Title(参考訳): 自律視覚ナビゲーションのためのポリライン型生成ナビゲーション空間セグメンテーション
- Authors: Zheng Chen, Zhengming Ding, David Crandall, Lantao Liu
- Abstract要約: ロボットが教師なしの方法で移動可能な空間分割を学習できるようにするための表現学習ベースのフレームワークを提案する。
提案するPSV-Netは,単一のラベルを使わずとも,高精度で視覚ナビゲーション可能な空間を学習可能であることを示す。
- 参考スコア(独自算出の注目度): 57.3062528453841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting navigable space is a fundamental capability for mobile robots
navigating in unknown or unmapped environments. In this work, we treat the
visual navigable space segmentation as a scene decomposition problem and
propose Polyline Segmentation Variational AutoEncoder Networks (PSV-Nets), a
representation-learning-based framework to enable robots to learn the navigable
space segmentation in an unsupervised manner. Current segmentation techniques
heavily rely on supervised learning strategies which demand a large amount of
pixel-level annotated images. In contrast, the proposed framework leverages a
generative model - Variational AutoEncoder (VAE) and an AutoEncoder (AE) to
learn a polyline representation that compactly outlines the desired navigable
space boundary in an unsupervised way. We also propose a visual receding
horizon planning method that uses the learned navigable space and a Scaled
Euclidean Distance Field (SEDF) to achieve autonomous navigation without an
explicit map. Through extensive experiments, we have validated that the
proposed PSV-Nets can learn the visual navigable space with high accuracy, even
without any single label. We also show that the prediction of the PSV-Nets can
be further improved with a small number of labels (if available) and can
significantly outperform the state-of-the-art fully supervised-learning-based
segmentation methods.
- Abstract(参考訳): ナビゲーション可能な空間の検出は、未知または未熟な環境での移動ロボットの基本的な機能である。
本研究では,視覚的ナビゲーション可能な空間セグメント化をシーン分解問題として扱うとともに,ロボットが教師なしでナビゲーション可能な空間セグメント化を学習できるようにする表現学習ベースのフレームワークであるPolyline Segmentation Variational AutoEncoder Networks (PSV-Nets)を提案する。
現在のセグメンテーション技術は、大量のピクセルレベルの注釈画像を必要とする教師付き学習戦略に大きく依存している。
対照的に、提案フレームワークは、可変オートエンコーダ (VAE) とオートエンコーダ (AE) という生成モデルを利用して、所望の空間境界を教師なしの方法でコンパクトにアウトラインするポリライン表現を学習する。
また,学習可能なナビゲート空間とスケールドユークリッド距離場(sedf)を用いて,明示的な地図を使わずに自律的なナビゲーションを実現する視覚反射地平線計画手法を提案する。
広範な実験により,提案するpsv-netは1つのラベルがなくても高い精度で視覚ナビゲート空間を学習できることを検証した。
また、PSV-Netの予測は、少数のラベル(利用可能であれば)でさらに改善され、最先端の完全教師付き学習に基づくセグメンテーション手法よりも大幅に優れていることを示す。
関連論文リスト
- Learning Navigational Visual Representations with Semantic Map
Supervision [85.91625020847358]
エージェントの自我中心のビューとセマンティックマップを対比してナビゲーション固有の視覚表現学習法を提案する。
Ego$2$-Map学習は、オブジェクト、構造、遷移などのコンパクトでリッチな情報を、ナビゲーションのためのエージェントのエゴセントリックな表現に転送する。
論文 参考訳(メタデータ) (2023-07-23T14:01:05Z) - ViNT: A Foundation Model for Visual Navigation [52.2571739391896]
Visual Navigation Transformer (ViNT) は視覚に基づくロボットナビゲーションの基礎モデルである。
ViNTは、任意のナビゲーションデータセットで使用可能な、汎用的な目標達成目標でトレーニングされている。
特定のデータセットでトレーニングされたスペシャリストモデルよりも優れた、肯定的な転送を示す。
論文 参考訳(メタデータ) (2023-06-26T16:57:03Z) - Rethinking Range View Representation for LiDAR Segmentation [66.73116059734788]
「多対一」マッピング、意味的不整合、形状変形は、射程射影からの効果的な学習に対する障害となる可能性がある。
RangeFormerは、ネットワークアーキテクチャ、データ拡張、後処理を含む新しい設計を含む、フルサイクルのフレームワークである。
比較対象のLiDARセマンティックスとパノプティックスセグメンテーションのベンチマークにおいて,初めてレンジビュー法が点,ボクセル,マルチビューフュージョンを越えられることを示す。
論文 参考訳(メタデータ) (2023-03-09T16:13:27Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Transferring ConvNet Features from Passive to Active Robot
Self-Localization: The Use of Ego-Centric and World-Centric Views [2.362412515574206]
標準VPRサブシステムは利用可能であると仮定され、ドメイン不変な状態認識能力はドメイン不変なNBVプランナーを訓練するために転送される。
我々は,CNNモデルから利用可能な視覚的手がかりを,出力層キュー(OLC)と中間層キュー(ILC)の2つのタイプに分割する。
本フレームワークでは,ICCとOLCを状態ベクトルにマッピングし,深層強化学習による多視点NBVプランナの訓練に使用する。
論文 参考訳(メタデータ) (2022-04-22T04:42:33Z) - End-to-End Partially Observable Visual Navigation in a Diverse
Environment [30.895264166384685]
本研究の目的は, (i) 複雑な視覚観察, (ii) 局所センシングの部分観測可能性, (iii) マルチモーダルナビゲーションの3つの課題である。
ローカルコントローラを表現するニューラルネットワーク(NN)アーキテクチャを提案し,エンドツーエンドアプローチの柔軟性を活用して強力なポリシを学習する。
本研究では,SPOTロボットにNNコントローラを実装し,部分観察を行う3つの課題について評価する。
論文 参考訳(メタデータ) (2021-09-16T06:53:57Z) - Navigation-Oriented Scene Understanding for Robotic Autonomy: Learning
to Segment Driveability in Egocentric Images [25.350677396144075]
この研究は、屋外ロボットナビゲーションのシーン理解に取り組み、オンボードカメラで撮影された画像にのみ依存する。
我々は、ロボットがどのようにナビゲートするかという点で、自我中心の画像を直接分類し、学習問題を自律的なナビゲーションタスクに合わせる。
任意のシーンに適用可能な3つの駆動性レベルからなる汎用的かつスケーラブルなアベイランスベースの定義を提案する。
論文 参考訳(メタデータ) (2021-09-15T12:25:56Z) - Learning Synthetic to Real Transfer for Localization and Navigational
Tasks [7.019683407682642]
ナビゲーションは、コンピュータビジョン、ロボット工学、制御の概念を組み合わせて、複数の分野のクロスロードにある。
この研究は、実世界への移動をできる限り少ない努力で行うことができるナビゲーションパイプラインをシミュレーションで作成することを目的としていた。
ナビゲーションパイプラインを設計するには、環境、ローカライゼーション、ナビゲーション、計画の4つの大きな課題が発生する。
論文 参考訳(メタデータ) (2020-11-20T08:37:03Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。