論文の概要: Deep Hierarchical Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2203.14335v2
- Date: Tue, 29 Mar 2022 04:36:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-02 17:25:27.757226
- Title: Deep Hierarchical Semantic Segmentation
- Title(参考訳): 階層的セマンティックセマンティックセグメンテーション
- Authors: Liulei Li, Tianfei Zhou, Wenguan Wang, Jianwu Li, Yi Yang
- Abstract要約: 階層的セマンティックセマンティックセグメンテーション(HSS)は、クラス階層の観点で視覚的観察を構造化、ピクセル単位で記述することを目的としている。
HSSNは、HSSを画素単位のマルチラベル分類タスクとしてキャストし、現在のセグメンテーションモデルに最小限のアーキテクチャ変更をもたらすだけである。
階層構造によって引き起こされるマージンの制約により、HSSNはピクセル埋め込み空間を再評価し、よく構造化されたピクセル表現を生成する。
- 参考スコア(独自算出の注目度): 76.40565872257709
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans are able to recognize structured relations in observation, allowing us
to decompose complex scenes into simpler parts and abstract the visual world in
multiple levels. However, such hierarchical reasoning ability of human
perception remains largely unexplored in current literature of semantic
segmentation. Existing work is often aware of flatten labels and predicts
target classes exclusively for each pixel. In this paper, we instead address
hierarchical semantic segmentation (HSS), which aims at structured, pixel-wise
description of visual observation in terms of a class hierarchy. We devise
HSSN, a general HSS framework that tackles two critical issues in this task: i)
how to efficiently adapt existing hierarchy-agnostic segmentation networks to
the HSS setting, and ii) how to leverage the hierarchy information to
regularize HSS network learning. To address i), HSSN directly casts HSS as a
pixel-wise multi-label classification task, only bringing minimal architecture
change to current segmentation models. To solve ii), HSSN first explores
inherent properties of the hierarchy as a training objective, which enforces
segmentation predictions to obey the hierarchy structure. Further, with
hierarchy-induced margin constraints, HSSN reshapes the pixel embedding space,
so as to generate well-structured pixel representations and improve
segmentation eventually. We conduct experiments on four semantic segmentation
datasets (i.e., Mapillary Vistas 2.0, Cityscapes, LIP, and PASCAL-Person-Part),
with different class hierarchies, segmentation network architectures and
backbones, showing the generalization and superiority of HSSN.
- Abstract(参考訳): 人間は観察において構造化された関係を認識することができ、複雑なシーンをより単純な部分に分解し、視覚世界を複数のレベルで抽象化することができる。
しかしながら、人間の知覚のこのような階層的推論能力は、現在のセマンティックセグメンテーションの文献ではほとんど解明されていない。
既存の作業はしばしばラベルをフラットにし、各ピクセルに対してのみターゲットクラスを予測する。
本稿では,階層的セマンティクスセグメンテーション(hss)に代えて,階層的セマンティクス(階層的セグメンテーション,階層的セグメンテーション,階層的セグメンテーション,階層的セグメンテーション,階層的セグメンテーション,階層的セグメンテーション)について述べる。
このタスクにおいて2つの重要な問題に取り組む一般的なHSSフレームワークであるHSSNを考案する。
一 既存の階層に依存しないセグメンテーションネットワークをHSS設定に効率的に適応する方法及び
二 階層情報を利用してHSSネットワーク学習を正規化する方法。
宛て
i) HSSN は HSS を画素単位のマルチラベル分類タスクとして直接キャストし、現在のセグメンテーションモデルに最小限のアーキテクチャ変更をもたらす。
解決する
ii)hssnは,階層構造に従うためにセグメント化予測を強制するトレーニング目標として,階層構造固有の特性を最初に検討する。
さらに階層的マージン制約により、hssnはピクセル埋め込み空間を再構成し、適切に構造化されたピクセル表現を生成し、最終的にはセグメンテーションを改善する。
我々は,4つのセマンティックセグメンテーションデータセット(Mapillary Vistas 2.0,Cityscapes,LIP,PASCAL-Person-Part)について,クラス階層,セグメンテーションネットワークアーキテクチャ,バックボーンを用いて実験を行い,HSSNの一般化と優位性を示した。
関連論文リスト
- SPIN: Hierarchical Segmentation with Subpart Granularity in Natural Images [17.98848062686217]
自然画像のサブパートアノテーションを用いた最初の階層的セマンティックセマンティックセマンティクスデータセットを提案する。
また,アルゴリズムが階層レベルの空間的関係と意味的関係をいかにうまく捉えるかを評価するために,新しい評価指標を2つ導入した。
論文 参考訳(メタデータ) (2024-07-12T21:08:00Z) - Auxiliary Tasks Enhanced Dual-affinity Learning for Weakly Supervised
Semantic Segmentation [79.05949524349005]
AuxSegNet+は、サリエンシマップから豊富な情報を探索する弱教師付き補助学習フレームワークである。
また,サリエンシとセグメンテーションの特徴マップから画素レベルの親和性を学習するためのクロスタスク親和性学習機構を提案する。
論文 参考訳(メタデータ) (2024-03-02T10:03:21Z) - Hierarchical Open-vocabulary Universal Image Segmentation [48.008887320870244]
Open-vocabulary Image segmentationは、任意のテキスト記述に従ってイメージをセマンティック領域に分割することを目的としている。
我々は,「モノ」と「スタッフ」の双方に対して,分離されたテキストイメージ融合機構と表現学習モジュールを提案する。
HIPIE tackles, HIerarchical, oPen-vocabulary, unIvErsal segmentation task in a unified framework。
論文 参考訳(メタデータ) (2023-07-03T06:02:15Z) - Open-world Semantic Segmentation via Contrasting and Clustering
Vision-Language Embedding [95.78002228538841]
本研究では,様々なオープンワールドカテゴリのセマンティックオブジェクトを高密度アノテーションを使わずにセマンティックオブジェクトのセマンティックオブジェクトのセマンティック化を学習するための,新しいオープンワールドセマンティックセマンティックセマンティックセマンティクスパイプラインを提案する。
提案手法は任意のカテゴリのオブジェクトを直接分割し、3つのベンチマークデータセット上でデータラベリングを必要とするゼロショットセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2022-07-18T09:20:04Z) - StructToken : Rethinking Semantic Segmentation with Structural Prior [14.056789487558731]
本稿では,構造認識抽出というセマンティックセグメンテーションの新しいパラダイムを提案する。
その特徴から各カテゴリの構造情報を段階的に抽出することを目的とした,一連の学習された構造トークンと画像特徴との相互作用によるセグメンテーション結果を生成する。
私たちのStructTokenは、ADE20K、Cityscapes、COCO-Stuff-10Kなど、広く使われている3つのベンチマークにおいて、最先端のベンチマークを上回っています。
論文 参考訳(メタデータ) (2022-03-23T17:58:31Z) - TransFGU: A Top-down Approach to Fine-Grained Unsupervised Semantic
Segmentation [44.75300205362518]
教師なしセマンティックセグメンテーションは、手動のアノテーションを使わずに、低レベルの視覚的特徴の高レベルセマンティック表現を得ることを目的としている。
本稿では, 非常に複雑なシナリオにおける細粒度セグメンテーションのための, トップダウンの教師なしセグメンテーションフレームワークを提案する。
我々の結果は、トップダウンの教師なしセグメンテーションが、オブジェクト中心とシーン中心の両方のデータセットに対して堅牢であることを示している。
論文 参考訳(メタデータ) (2021-12-02T18:59:03Z) - HS3: Learning with Proper Task Complexity in Hierarchically Supervised
Semantic Segmentation [81.87943324048756]
本稿では,タスクの複雑さによって意味のある表現を学習するためのセグメンテーションネットワークの中間層を監督するトレーニングスキームである階層的意味論(Hierarchically Supervised Semantic,HS3)を提案する。
提案するHS3-Fuseフレームワークはセグメンテーション予測をさらに改善し、2つの大きなセグメンテーションベンチマークであるNYUD-v2とCityscapesで最先端の結果を得る。
論文 参考訳(メタデータ) (2021-11-03T16:33:29Z) - Exploring the Hierarchy in Relation Labels for Scene Graph Generation [75.88758055269948]
提案手法は,Recall@50において,複数の最先端ベースラインを大きなマージン(最大33%の相対利得)で改善することができる。
実験により,提案手法により,最先端のベースラインを大きなマージンで改善できることが示された。
論文 参考訳(メタデータ) (2020-09-12T17:36:53Z) - HOSE-Net: Higher Order Structure Embedded Network for Scene Graph
Generation [20.148175528691905]
本稿では,関係の局所的および大域的構造情報を出力空間に組み込むための新しい構造認識型組込み分類器(SEC)モジュールを提案する。
また,高次構造情報を導入して部分空間の数を減らし,階層的セマンティックアグリゲーション(HSA)モジュールを提案する。
提案したHOSE-Netは、Visual GenomeとVRDの2つの人気のあるベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-08-12T07:58:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。