論文の概要: Navigation-Oriented Scene Understanding for Robotic Autonomy: Learning
to Segment Driveability in Egocentric Images
- arxiv url: http://arxiv.org/abs/2109.07245v1
- Date: Wed, 15 Sep 2021 12:25:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 14:52:37.022732
- Title: Navigation-Oriented Scene Understanding for Robotic Autonomy: Learning
to Segment Driveability in Egocentric Images
- Title(参考訳): ロボットオートノミーのためのナビゲーション指向シーン理解:エゴセントリック画像におけるセグメンテーションの学習
- Authors: Galadrielle Humblot-Renaux, Letizia Marchegiani, Thomas B. Moeslund
and Rikke Gade
- Abstract要約: この研究は、屋外ロボットナビゲーションのシーン理解に取り組み、オンボードカメラで撮影された画像にのみ依存する。
我々は、ロボットがどのようにナビゲートするかという点で、自我中心の画像を直接分類し、学習問題を自律的なナビゲーションタスクに合わせる。
任意のシーンに適用可能な3つの駆動性レベルからなる汎用的かつスケーラブルなアベイランスベースの定義を提案する。
- 参考スコア(独自算出の注目度): 25.350677396144075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work tackles scene understanding for outdoor robotic navigation, solely
relying on images captured by an on-board camera. Conventional visual scene
understanding interprets the environment based on specific descriptive
categories. However, such a representation is not directly interpretable for
decision-making and constrains robot operation to a specific domain. Thus, we
propose to segment egocentric images directly in terms of how a robot can
navigate in them, and tailor the learning problem to an autonomous navigation
task. Building around an image segmentation network, we present a generic and
scalable affordance-based definition consisting of 3 driveability levels which
can be applied to arbitrary scenes. By encoding these levels with soft ordinal
labels, we incorporate inter-class distances during learning which improves
segmentation compared to standard one-hot labelling. In addition, we propose a
navigation-oriented pixel-wise loss weighting method which assigns higher
importance to safety-critical areas. We evaluate our approach on large-scale
public image segmentation datasets spanning off-road and urban scenes. In a
zero-shot cross-dataset generalization experiment, we show that our affordance
learning scheme can be applied across a diverse mix of datasets and improves
driveability estimation in unseen environments compared to general-purpose,
single-dataset segmentation.
- Abstract(参考訳): この作業は、屋外ロボットナビゲーションのシーン理解に取り組み、オンボードカメラで撮影された画像のみに依存する。
従来の視覚シーン理解は、特定の記述カテゴリーに基づいて環境を解釈する。
しかし、そのような表現は、ロボットの動作を特定の領域に拘束する決定や制約を直接解釈することはできない。
そこで本研究では,ロボットの操作方法の観点で,エゴセントリック画像を直接分割し,学習問題を自律的なナビゲーションタスクに合わせることを提案する。
画像セグメンテーションネットワークを中心に,任意のシーンに適用可能な3つの駆動性レベルからなる,汎用的でスケーラブルなアフォーアンスベースの定義を提案する。
これらのレベルをソフトな順序ラベルで符号化することにより、標準の1ホットラベルよりもセグメンテーションを改善する学習におけるクラス間距離を組み込む。
また,安全クリティカルな領域に高い重要度を割り当てるナビゲーション指向の画素方向損失重み付け手法を提案する。
オフロードシーンと都市シーンにまたがる大規模パブリックイメージセグメンテーションデータセットに対するアプローチを評価する。
zero-shot cross-dataset generalization実験では、汎用の単一データセットセグメンテーションと比較して、さまざまなデータセットの混合にまたがって、我々のアフォーマンス学習手法が適用可能であることを示し、未認識環境における駆動性推定を改善した。
関連論文リスト
- Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - Open-world Semantic Segmentation via Contrasting and Clustering
Vision-Language Embedding [95.78002228538841]
本研究では,様々なオープンワールドカテゴリのセマンティックオブジェクトを高密度アノテーションを使わずにセマンティックオブジェクトのセマンティックオブジェクトのセマンティック化を学習するための,新しいオープンワールドセマンティックセマンティックセマンティックセマンティクスパイプラインを提案する。
提案手法は任意のカテゴリのオブジェクトを直接分割し、3つのベンチマークデータセット上でデータラベリングを必要とするゼロショットセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2022-07-18T09:20:04Z) - Panoramic Panoptic Segmentation: Insights Into Surrounding Parsing for
Mobile Agents via Unsupervised Contrastive Learning [93.6645991946674]
我々はパノラマパノラマパノプティクスのセグメンテーションを最も総合的なシーン理解として紹介する。
完全な周囲の理解は、移動エージェントに最大限の情報を提供する。
本稿では,標準的なピンホール画像のモデルトレーニングを可能にし,学習した特徴を別のドメインに転送するフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-21T20:07:15Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - Polyline Based Generative Navigable Space Segmentation for Autonomous
Visual Navigation [57.3062528453841]
ロボットが教師なしの方法で移動可能な空間分割を学習できるようにするための表現学習ベースのフレームワークを提案する。
提案するPSV-Netは,単一のラベルを使わずとも,高精度で視覚ナビゲーション可能な空間を学習可能であることを示す。
論文 参考訳(メタデータ) (2021-10-29T19:50:48Z) - SIGN: Spatial-information Incorporated Generative Network for
Generalized Zero-shot Semantic Segmentation [22.718908677552196]
ゼロショットセマンティックセグメンテーションは、画像レベルの代わりにピクセルレベルでクラスラベルを予測する。
Relative Positionalは特徴レベルで空間情報を統合し、任意の画像サイズを処理できる。
Anneal Self-Trainingは、自動的に異なる重要性を擬似ラベルに割り当てる。
論文 参考訳(メタデータ) (2021-08-27T22:18:24Z) - Unsupervised Image Segmentation by Mutual Information Maximization and
Adversarial Regularization [7.165364364478119]
InMARS(Information Maximization and Adrial Regularization)と呼ばれる新しい教師なしセマンティックセマンティックセマンティクス手法を提案する。
シーンを知覚群に解析する人間の知覚に触発され、提案手法はまず、入力画像を意味のある領域(スーパーピクセルとも呼ばれる)に分割する。
次に、相互情報最大化(Multual-Information-Maximization)と、それらの領域を意味論的に意味のあるクラスにクラスタ化するための敵対的トレーニング戦略を利用する。
提案手法は2つの非教師付きセマンティックセグメンテーションデータセット上での最先端性能を実現することを実証した。
論文 参考訳(メタデータ) (2021-07-01T18:36:27Z) - Self-supervised Segmentation via Background Inpainting [96.10971980098196]
移動可能なカメラで撮影された単一の画像で、自己教師付き検出とセグメンテーションのアプローチを導入する。
我々は、提案に基づくセグメンテーションネットワークのトレーニングに利用する自己教師付き損失関数を利用する。
本手法は,標準ベンチマークから視覚的に切り離された画像の人間の検出とセグメント化に応用し,既存の自己監督手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-11T08:34:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。