論文の概要: JPPF: Multi-task Fusion for Consistent Panoptic-Part Segmentation
- arxiv url: http://arxiv.org/abs/2311.18618v1
- Date: Thu, 30 Nov 2023 15:17:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 16:09:07.473929
- Title: JPPF: Multi-task Fusion for Consistent Panoptic-Part Segmentation
- Title(参考訳): jppf: 一貫性のあるpanoptic-partセグメンテーションのためのマルチタスク融合
- Authors: Shishir Muralidhara, Sravan Kumar Jagadeesh, Ren\'e Schuster, Didier
Stricker
- Abstract要約: パーシャル・アウェア・パノプティック・セグメンテーション(Part-Aware Panoptic segmentation)は、複数のレベルの粒度でシーンの意味的理解を提供することを目的としたコンピュータビジョンの問題である。
本研究は,3つの分割を効果的に組み合わせてパン光学部分分割を得るJPPF(Joint Panoptic Part Fusion)について述べる。
- 参考スコア(独自算出の注目度): 12.19926973291957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Part-aware panoptic segmentation is a problem of computer vision that aims to
provide a semantic understanding of the scene at multiple levels of
granularity. More precisely, semantic areas, object instances, and semantic
parts are predicted simultaneously. In this paper, we present our Joint
Panoptic Part Fusion (JPPF) that combines the three individual segmentations
effectively to obtain a panoptic-part segmentation. Two aspects are of utmost
importance for this: First, a unified model for the three problems is desired
that allows for mutually improved and consistent representation learning.
Second, balancing the combination so that it gives equal importance to all
individual results during fusion. Our proposed JPPF is parameter-free and
dynamically balances its input. The method is evaluated and compared on the
Cityscapes Panoptic Parts (CPP) and Pascal Panoptic Parts (PPP) datasets in
terms of PartPQ and Part-Whole Quality (PWQ). In extensive experiments, we
verify the importance of our fair fusion, highlight its most significant impact
for areas that can be further segmented into parts, and demonstrate the
generalization capabilities of our design without fine-tuning on 5 additional
datasets.
- Abstract(参考訳): 部分認識パンオプティカルセグメンテーション(part-aware panoptic segmentation)は、複数のレベルの粒度でシーンを意味的に理解することを目的としたコンピュータビジョンの問題である。
より正確には、セマンティック領域、オブジェクトインスタンス、セマンティック部分が同時に予測される。
本稿では,3つの個別セグメンテーションを効果的に結合してpanoptic-partセグメンテーションを得るjoint panoptic part fusion (jppf)を提案する。
第一に、相互に改善され一貫した表現学習を可能にする3つの問題の統一モデルが望まれる。
第2に、結合のバランスをとることで、融合中の個々の結果に等しく重要である。
提案するJPPFはパラメータフリーで,動的に入力のバランスをとる。
本手法は,Cityscapes Panoptic Parts (CPP) と Pascal Panoptic Parts (PPP) のデータセットをPartPQおよびPart-Whole Quality (PWQ) を用いて評価・比較した。
大規模な実験では、フェアフュージョンの重要性を検証し、さらに分割可能な領域に対する最も大きな影響を強調し、5つの追加データセットを微調整することなく、設計の一般化能力を実証する。
関連論文リスト
- PCF-Lift: Panoptic Lifting by Probabilistic Contrastive Fusion [80.79938369319152]
我々は,PCF(Probabilis-tic Contrastive Fusion)に基づくPCF-Liftという新しいパイプラインを設計する。
私たちのPCFリフトは、ScanNetデータセットやMessy Roomデータセット(シーンレベルのPQが4.4%改善)など、広く使用されているベンチマークにおいて、最先端の手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-10-14T16:06:59Z) - Enhanced Semantic Segmentation for Large-Scale and Imbalanced Point Clouds [6.253217784798542]
小型の物体は、発生頻度が低いため、アンダーサンプリングや誤分類される傾向がある。
本稿では,大規模かつサンプル不均衡なクラウドシーンを対象としたマルチラテラルカスケーディングネットワーク(MCNet)を提案する。
論文 参考訳(メタデータ) (2024-09-21T02:23:01Z) - Multi-interactive Feature Learning and a Full-time Multi-modality
Benchmark for Image Fusion and Segmentation [66.15246197473897]
多モード画像融合とセグメンテーションは、自律走行とロボット操作において重要な役割を果たす。
画像融合とtextbfSegmentation のための textbfMulti-textbfinteractive textbfFeature Learning アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:03:58Z) - Multi-Grained Multimodal Interaction Network for Entity Linking [65.30260033700338]
マルチモーダルエンティティリンクタスクは、マルチモーダル知識グラフへの曖昧な言及を解決することを目的としている。
MELタスクを解決するための新しいMulti-Grained Multimodal InteraCtion Network $textbf(MIMIC)$ frameworkを提案する。
論文 参考訳(メタデータ) (2023-07-19T02:11:19Z) - PanopticPartFormer++: A Unified and Decoupled View for Panoptic Part Segmentation [153.76253697804225]
Panoptic Part (PPS) は、パノプティクスと部分分割をひとつのタスクに統合する。
最初のエンドツーエンド統合フレームワークであるPanoptic-PartFormerを設計する。
私たちのモデルは強力なベースラインとして機能し、PSの将来の研究を支援することができます。
論文 参考訳(メタデータ) (2023-01-03T05:30:56Z) - Part-guided Relational Transformers for Fine-grained Visual Recognition [59.20531172172135]
識別的特徴を学習し,特徴変換モジュールとの相関関係を探索するフレームワークを提案する。
提案手法は,3-of-the-levelオブジェクト認識において,部分ブランチの追加に頼らず,最先端の性能に達する。
論文 参考訳(メタデータ) (2022-12-28T03:45:56Z) - Multi-task Fusion for Efficient Panoptic-Part Segmentation [12.650574326251023]
本稿では,共有エンコーダを用いて意味,例,部分のセグメンテーションを生成する新しいネットワークを提案する。
3つの頭部の予測を効率的に融合させるため,パラメータフリーのジョイント・フュージョン・モジュールを導入する。
本手法は,Cityscapes Panoptic Parts (CPP) と Pascal Panoptic Parts (PPP) のデータセットを用いて評価する。
論文 参考訳(メタデータ) (2022-12-15T09:04:45Z) - Panoptic-PartFormer: Learning a Unified Model for Panoptic Part
Segmentation [76.9420522112248]
Panoptic Part (PPS) は、汎視的セグメンテーションと部分セグメンテーションをひとつのタスクに統合することを目的としている。
そこで我々はPanoptic-PartFormerというエンドツーエンド統合手法を設計した。
私たちのPanoptic-PartFormerは、Cityscapes PPSとPascal Context PPSデータセットの両方で、最先端の新たな結果を実現しています。
論文 参考訳(メタデータ) (2022-04-10T11:16:45Z) - Part-aware Panoptic Segmentation [3.342126234995932]
Part-Aware Panoptic (PPS)は、複数の抽象化レベルでシーンを理解することを目的としている。
一般的に使われている2つのデータセット、CityscapesとPascal VOCに一貫したアノテーションを提供します。
パートアウェア・パノプティクス(Part-Aware Panoptic Quality, PartPQ)と呼ばれるPSSを評価するための単一の指標を提案する。
論文 参考訳(メタデータ) (2021-06-11T12:48:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。