論文の概要: Panoramic Panoptic Segmentation: Insights Into Surrounding Parsing for
Mobile Agents via Unsupervised Contrastive Learning
- arxiv url: http://arxiv.org/abs/2206.10711v1
- Date: Tue, 21 Jun 2022 20:07:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 16:15:10.039792
- Title: Panoramic Panoptic Segmentation: Insights Into Surrounding Parsing for
Mobile Agents via Unsupervised Contrastive Learning
- Title(参考訳): panoramic panoptic segmentation:unsupervised contrastive learningによるモバイルエージェントの周辺解析に関する研究
- Authors: Alexander Jaus, Kailun Yang, Rainer Stiefelhagen
- Abstract要約: 我々はパノラマパノラマパノプティクスのセグメンテーションを最も総合的なシーン理解として紹介する。
完全な周囲の理解は、移動エージェントに最大限の情報を提供する。
本稿では,標準的なピンホール画像のモデルトレーニングを可能にし,学習した特徴を別のドメインに転送するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 93.6645991946674
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we introduce panoramic panoptic segmentation, as the most
holistic scene understanding, both in terms of Field of View (FoV) and
image-level understanding for standard camera-based input. A complete
surrounding understanding provides a maximum of information to a mobile agent,
which is essential for any intelligent vehicle in order to make informed
decisions in a safety-critical dynamic environment such as real-world traffic.
In order to overcome the lack of annotated panoramic images, we propose a
framework which allows model training on standard pinhole images and transfers
the learned features to a different domain in a cost-minimizing way. Using our
proposed method with dense contrastive learning, we manage to achieve
significant improvements over a non-adapted approach. Depending on the
efficient panoptic segmentation architecture, we can improve 3.5-6.5% measured
in Panoptic Quality (PQ) over non-adapted models on our established Wild
Panoramic Panoptic Segmentation (WildPPS) dataset. Furthermore, our efficient
framework does not need access to the images of the target domain, making it a
feasible domain generalization approach suitable for a limited hardware
setting. As additional contributions, we publish WildPPS: The first panoramic
panoptic image dataset to foster progress in surrounding perception and explore
a novel training procedure combining supervised and contrastive training.
- Abstract(参考訳): 本研究では,パノラマパオプティカルセグメンテーション(パノラマパオプティカルセグメンテーション)を,fov(field of view)と標準カメラベース入力のための画像レベルの理解の両面から,最も総合的なシーン理解として紹介する。
周囲の完全な理解は、現実の交通のような安全クリティカルな動的環境において情報的決定を行うために、あらゆるインテリジェントな車両に不可欠な、移動エージェントに最大限の情報を提供する。
注釈付きパノラマ画像の欠如を克服するために,標準ピンホール画像のモデルトレーニングを可能にし,学習した機能をコスト最小の方法で異なるドメインに転送するフレームワークを提案する。
提案手法は, 厳密なコントラスト学習を用いて, 非適応的アプローチによる大幅な改善を実現している。
効率的なパノラマセグメンテーションアーキテクチャによっては、確立された野生パノラマパノラマセグメンテーション(wildpps)データセット上の非適応モデルよりも3.5-6.5%のpqを測定することができる。
さらに,本フレームワークでは,対象領域の画像へのアクセスを必要としないため,限られたハードウェア設定に適したドメイン一般化アプローチが実現可能である。
追加の貢献としてwildpps: the first panoramic panoptic image datasetを出版し、周囲の知覚の進歩を促進し、教師付きとコントラスト型のトレーニングを組み合わせた新しいトレーニング手順を探求した。
関連論文リスト
- Few-Shot Panoptic Segmentation With Foundation Models [23.231014713335664]
約0ラベルのSegmenting Panoptic Information(SPINO)を提示することで、タスク非依存の画像特徴を活用して、少ショットのパノプティクスセグメンテーションを可能にすることを提案する。
本手法では,DINOv2のバックボーンと,セマンティックセグメンテーションと境界推定のための軽量なネットワークヘッドを組み合わせる。
提案手法は,10個の注釈付き画像のみを用いてトレーニングし,既存の汎視的セグメンテーション法で使用可能な高品質な擬似ラベルを予測する。
論文 参考訳(メタデータ) (2023-09-19T16:09:01Z) - Rethinking Range View Representation for LiDAR Segmentation [66.73116059734788]
「多対一」マッピング、意味的不整合、形状変形は、射程射影からの効果的な学習に対する障害となる可能性がある。
RangeFormerは、ネットワークアーキテクチャ、データ拡張、後処理を含む新しい設計を含む、フルサイクルのフレームワークである。
比較対象のLiDARセマンティックスとパノプティックスセグメンテーションのベンチマークにおいて,初めてレンジビュー法が点,ボクセル,マルチビューフュージョンを越えられることを示す。
論文 参考訳(メタデータ) (2023-03-09T16:13:27Z) - Transfer beyond the Field of View: Dense Panoramic Semantic Segmentation
via Unsupervised Domain Adaptation [30.104947024614127]
パノラマ的セマンティックセグメンテーションのための教師なしドメイン適応のタスクを形式化する。
DensePASSはドメイン横断条件下でのパノラマセグメンテーションのための新しいデータセットである。
P2PDAはPinhole-to-Panoramicセマンティックセグメンテーションのための汎用フレームワークである。
論文 参考訳(メタデータ) (2021-10-21T11:22:05Z) - Navigation-Oriented Scene Understanding for Robotic Autonomy: Learning
to Segment Driveability in Egocentric Images [25.350677396144075]
この研究は、屋外ロボットナビゲーションのシーン理解に取り組み、オンボードカメラで撮影された画像にのみ依存する。
我々は、ロボットがどのようにナビゲートするかという点で、自我中心の画像を直接分類し、学習問題を自律的なナビゲーションタスクに合わせる。
任意のシーンに適用可能な3つの駆動性レベルからなる汎用的かつスケーラブルなアベイランスベースの定義を提案する。
論文 参考訳(メタデータ) (2021-09-15T12:25:56Z) - DeepPanoContext: Panoramic 3D Scene Understanding with Holistic Scene
Context Graph and Relation-based Optimization [66.25948693095604]
本研究では,パノラマ画像から各オブジェクトの3次元空間配置と形状,ポーズ,位置,意味的カテゴリを復元するパノラマ3次元シーン理解手法を提案する。
実験により, この手法は, パノラマシーン理解において, 幾何学的精度とオブジェクト配置の両方の観点から, 既存の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-08-24T13:55:29Z) - DensePASS: Dense Panoramic Semantic Segmentation via Unsupervised Domain
Adaptation with Attention-Augmented Context Exchange [32.29797061415896]
パノラマ的セマンティックセグメンテーションのための教師なしドメイン適応のタスクを形式化する。
パノラマ画像の異なるターゲット領域にピンホールカメラデータのソース領域からラベル付き例に基づいて訓練されたネットワークを配置する。
我々は、注目強化ドメイン適応モジュールの異なる変種に基づいて、ドメイン間パノラマセマンティックセマンティックセマンティックセマンティクスのための汎用フレームワークを構築した。
論文 参考訳(メタデータ) (2021-08-13T20:15:46Z) - Panoramic Panoptic Segmentation: Towards Complete Surrounding
Understanding via Unsupervised Contrastive Learning [97.37544023666833]
我々は,パノラマパオプティックセグメンテーションを最も総合的なシーン理解として導入する。
完全な周囲の理解は、エージェントに最大限の情報を提供する。
標準ピンホール画像のモデルトレーニングを可能にし、学習した機能を異なるドメインに転送するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-01T09:37:27Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - Self-supervised Equivariant Attention Mechanism for Weakly Supervised
Semantic Segmentation [93.83369981759996]
本稿では,自己監督同変注意機構(SEAM)を提案する。
本手法は,完全教師付きセマンティックセグメンテーションにおいて,同値が暗黙の制約であることを示す。
本稿では,ネットワーク学習のための自己スーパービジョンを提供するために,様々な変換画像から予測されたCAMの整合性正則化を提案する。
論文 参考訳(メタデータ) (2020-04-09T14:57:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。