論文の概要: Visual Representation Learning for Preference-Aware Path Planning
- arxiv url: http://arxiv.org/abs/2109.08968v1
- Date: Sat, 18 Sep 2021 17:05:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 16:05:20.816570
- Title: Visual Representation Learning for Preference-Aware Path Planning
- Title(参考訳): 嗜好認識経路計画のための視覚表現学習
- Authors: Kavan Singh Sikand, Sadegh Rabiee, Adam Uccello, Xuesu Xiao, Garrett
Warnell, Joydeep Biswas
- Abstract要約: 優先認識経路計画(VRL-PAP)のための視覚表現学習について紹介する。
VRL-PAPは、視点不変の地形の視覚的表現を学習し、連続的な表現空間における地形のタイプを符号化する。
画像から表現へマップし、それを表現して、好みに合った経路計画を実行するコストにマップする。
- 参考スコア(独自算出の注目度): 18.39540108288574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous mobile robots deployed in outdoor environments must reason about
different types of terrain for both safety (e.g., prefer dirt over mud) and
deployer preferences (e.g., prefer dirt path over flower beds). Most existing
solutions to this preference-aware path planning problem use semantic
segmentation to classify terrain types from camera images, and then ascribe
costs to each type. Unfortunately, there are three key limitations of such
approaches -- they 1) require pre-enumeration of the discrete terrain types, 2)
are unable to handle hybrid terrain types (e.g., grassy dirt), and 3) require
expensive labelled data to train visual semantic segmentation. We introduce
Visual Representation Learning for Preference-Aware Path Planning (VRL-PAP), an
alternative approach that overcomes all three limitations: VRL-PAP leverages
unlabeled human demonstrations of navigation to autonomously generate triplets
for learning visual representations of terrain that are viewpoint invariant and
encode terrain types in a continuous representation space. The learned
representations are then used along with the same unlabeled human navigation
demonstrations to learn a mapping from the representation space to terrain
costs. At run time, VRL-PAP maps from images to representations and then
representations to costs to perform preference-aware path planning. We present
empirical results from challenging outdoor settings that demonstrate VRL-PAP 1)
is successfully able to pick paths that reflect demonstrated preferences, 2) is
comparable in execution to geometric navigation with a highly detailed manually
annotated map (without requiring such annotations), 3) is able to generalize to
novel terrain types with minimal additional unlabeled demonstrations.
- Abstract(参考訳): 屋外環境に配備される自律移動ロボットは、安全(例えば泥よりも泥を好む)とデプロイ(例えば花壇よりも土の道を好む)の両方のために異なるタイプの地形を推論する必要がある。
この選好認識経路計画問題に対する既存のソリューションのほとんどは、セマンティックセグメンテーションを使用して、カメライメージから地形タイプを分類し、各タイプにコストを負担する。
残念ながら、このようなアプローチには3つの重要な制限がある。
1) 離散地形タイプの事前列挙が必要である。
2)ハイブリッド地形(草地など)を扱えないこと、及び
3)ビジュアルセマンティクスのセグメンテーションを訓練するには高価なラベル付きデータが必要である。
VRL-PAPは、ナビゲーションのラベルのない人間のデモを利用して、視点不変な地形の視覚的表現を自律的に生成し、連続的な表現空間における地形のタイプをエンコードする、視覚的表現学習(Visual Representation Learning for Preference-Aware Path Planning, VRL-PAP)を提案する。
学習された表現は、同じラベルのない人間のナビゲーションデモと一緒に使用され、表現空間から地形コストへのマッピングを学ぶ。
実行時に、VRL-PAPは画像から表現にマップし、その後、好みに合った経路計画を実行するコストにマップする。
屋外環境におけるVRL-PAPの実証実験結果
1) 実証された嗜好を反映した経路を選択できる。
2) 高度に詳細なアノテーション付きマップによる幾何学的ナビゲーションの実行に匹敵する(このようなアノテーションは不要)。
3) 新たな地形タイプを最小限の追加的なラベルなしのデモで一般化することができる。
関連論文リスト
- ConceptGraphs: Open-Vocabulary 3D Scene Graphs for Perception and
Planning [125.90002884194838]
ConceptGraphsはオープンな3Dシーン用のグラフ構造化表現である。
2Dファウンデーションモデルを活用し、マルチビューアソシエーションによってアウトプットを3Dに融合することで構築される。
我々は,この表現の有用性を,下流の計画タスクを通じて実証する。
論文 参考訳(メタデータ) (2023-09-28T17:53:38Z) - Neural Semantic Surface Maps [52.61017226479506]
本稿では,2つの属とゼロの形状の地図を自動計算する手法を提案する。
提案手法は,手動のアノテーションや3Dトレーニングデータ要求を排除し,意味的表面-表面マップを生成する。
論文 参考訳(メタデータ) (2023-09-09T16:21:56Z) - An Informative Path Planning Framework for Active Learning in UAV-based
Semantic Mapping [27.460481202195012]
無人航空機(UAV)は、航空地図や一般的な監視作業に頻繁に使用される。
近年のディープラーニングの進歩により、画像の自動セマンティックセグメンテーションが実現され、大規模な複雑な環境の解釈が容易になった。
モデル再学習のための情報的訓練画像を自律的に取得するための,UAVのための新しい汎用的計画フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-07T09:41:21Z) - Weakly-Supervised Multi-Granularity Map Learning for Vision-and-Language
Navigation [87.52136927091712]
我々は,ロボットエージェントが言語指導によって記述された経路をたどって,環境の中をナビゲートするよう訓練する,現実的かつ困難な問題に対処する。
高精度かつ効率的なナビゲーションを実現するためには,環境オブジェクトの空間的位置と意味情報の両方を正確に表現した地図を構築することが重要である。
より包括的にオブジェクトを表現するために,オブジェクトの細粒度(色,テクスチャなど)とセマンティッククラスの両方を含む多粒度マップを提案する。
論文 参考訳(メタデータ) (2022-10-14T04:23:27Z) - SPIN Road Mapper: Extracting Roads from Aerial Images via Spatial and
Interaction Space Graph Reasoning for Autonomous Driving [64.10636296274168]
道路抽出は、自律航法システムを構築するための重要なステップである。
この問題に対して単に畳み込みニューラルネットワーク(ConvNets)を使用することは、画像内の道路セグメント間の遠い依存関係をキャプチャする非効率であるため、効果がない。
本研究では,ConvNetに接続した時,特徴写像から投影された空間空間および相互作用空間上に構築されたグラフの推論を行う空間空間グラフ推論(SPIN)モジュールを提案する。
論文 参考訳(メタデータ) (2021-09-16T03:52:17Z) - OFFSEG: A Semantic Segmentation Framework For Off-Road Driving [6.845371503461449]
OFFSEGと呼ばれるオフロードセマンティックセグメンテーションのためのフレームワークを提案する。
オフロードセマンティクスセグメンテーションは、不均一な地形、非構造なクラス境界、不規則な特徴、強いテクスチャが存在するため、困難である。
論文 参考訳(メタデータ) (2021-03-23T09:45:41Z) - Fine-Grained Off-Road Semantic Segmentation and Mapping via Contrastive
Learning [7.965964259208489]
道路検出やトラバーサビリティ解析は、移動ロボットが複雑なオフロードシーンを横断するための重要な技術である。
オフロードロボットには、きめ細かいラベルを持つシーンを理解する必要がある。
本研究では,ロボットがオフロードを横断する有意義なシーン理解を実現するための,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T13:23:24Z) - Isometric Propagation Network for Generalized Zero-shot Learning [72.02404519815663]
一般的な戦略は、クラス属性の意味空間と、見たクラスとそのデータに基づいて画像の視覚空間とのマッピングを学ぶことである。
本稿では,各空間内のクラス間の関係を強化し,2つの空間におけるクラス依存性を整合させるIsometric propagation Network (IPN)を提案する。
IPNは3つの人気のあるゼロショット学習ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-02-03T12:45:38Z) - Audio-Visual Self-Supervised Terrain Type Discovery for Mobile Platforms [29.590052023903446]
地形特性を認識・発見する能力は多くの自律型地上ロボットにとって重要な機能である。
移動体プラットフォームの下面に取り付けられたマイクから抽出した音声特徴を切り替えるマルチモーダル自己教師型学習手法を提案する。
次に、地形クラスタラベルを使用して、画像ベースの畳み込みニューラルネットワークをトレーニングし、地形タイプの変化を予測する。
論文 参考訳(メタデータ) (2020-10-13T11:56:48Z) - Object-and-Action Aware Model for Visual Language Navigation [70.33142095637515]
VLN(Vision-and-Language Navigation)は、比較的一般的な自然言語命令をロボットエージェントアクションに変換する必要があるという点で特徴的である。
本稿では、これらの2種類の自然言語に基づく命令を別々に処理するオブジェクト・アンド・アクション・アウェア・モデル(OAAM)を提案する。
これにより、各プロセスは、オブジェクト中心/アクション中心の命令を、自身の視覚的知覚/行動指向に柔軟に一致させることができる。
論文 参考訳(メタデータ) (2020-07-29T06:32:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。