論文の概要: Primitive Generation and Semantic-related Alignment for Universal
Zero-Shot Segmentation
- arxiv url: http://arxiv.org/abs/2306.11087v1
- Date: Mon, 19 Jun 2023 17:59:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 16:51:04.028463
- Title: Primitive Generation and Semantic-related Alignment for Universal
Zero-Shot Segmentation
- Title(参考訳): ユニバーサルゼロショットセグメンテーションのための原始生成と意味的関連アライメント
- Authors: Shuting He, Henghui Ding, Wei Jiang
- Abstract要約: 本研究では, トレーニングサンプルを使わずに, 新規カテゴリのパノプティクス, 例えば, セマンティックセマンティックセマンティックセマンティックセマンティクスを実現するために, ユニバーサルゼロショットセマンティクスについて検討する。
本稿では,意味空間と視覚空間を関連づけた未知のカテゴリの特徴を合成する生成モデルを提案する。
提案手法は、ゼロショットパノプティクスのセグメンテーション、インスタンスセグメンテーション、セマンティックセグメンテーションにおける最先端性能を実現する。
- 参考スコア(独自算出の注目度): 13.001629605405954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study universal zero-shot segmentation in this work to achieve panoptic,
instance, and semantic segmentation for novel categories without any training
samples. Such zero-shot segmentation ability relies on inter-class
relationships in semantic space to transfer the visual knowledge learned from
seen categories to unseen ones. Thus, it is desired to well bridge
semantic-visual spaces and apply the semantic relationships to visual feature
learning. We introduce a generative model to synthesize features for unseen
categories, which links semantic and visual spaces as well as addresses the
issue of lack of unseen training data. Furthermore, to mitigate the domain gap
between semantic and visual spaces, firstly, we enhance the vanilla generator
with learned primitives, each of which contains fine-grained attributes related
to categories, and synthesize unseen features by selectively assembling these
primitives. Secondly, we propose to disentangle the visual feature into the
semantic-related part and the semantic-unrelated part that contains useful
visual classification clues but is less relevant to semantic representation.
The inter-class relationships of semantic-related visual features are then
required to be aligned with those in semantic space, thereby transferring
semantic knowledge to visual feature learning. The proposed approach achieves
impressively state-of-the-art performance on zero-shot panoptic segmentation,
instance segmentation, and semantic segmentation. Code is available at
https://henghuiding.github.io/PADing/.
- Abstract(参考訳): 本研究では,新しいカテゴリのパノミック,インスタンス,セマンティクスセグメンテーションをトレーニングサンプルなしで実現するために,ユニバーサルゼロショットセグメンテーションについて検討した。
このようなゼロショットセグメンテーション能力は、目に見えないカテゴリから学んだ視覚知識を、意味空間におけるクラス間の関係に依存する。
したがって、意味空間と視覚空間を橋渡しし、その意味関係を視覚特徴学習に適用することが望まれる。
我々は、意味空間と視覚空間をリンクする、見えないカテゴリの機能を合成する生成モデルを導入し、未知のトレーニングデータの欠如の問題に対処する。
さらに,セマンティクスと視覚空間の領域間ギャップを緩和するために,まず,学習されたプリミティブを用いたバニラ生成機能を強化し,これらのプリミティブを選択的に組み立てることで,カテゴリに関連する細かな属性を合成する。
第2に,視覚特徴を意味的関連部分と意味的関連部分に分け,有用な視覚分類手がかりを含むが,意味的表現とは無関係な視覚的特徴を分離することを提案する。
セマンティック関連視覚的特徴のクラス間関係は、セマンティック空間における特徴と整合し、セマンティック知識を視覚的特徴学習に伝達する必要がある。
提案手法は,ゼロショットパンオプティカルセグメンテーション,インスタンスセグメンテーション,セマンティクスセグメンテーションにおいて,最先端のパフォーマンスを実現する。
コードはhttps://henghuiding.github.io/PADing/.comで入手できる。
関連論文リスト
- Dual Relation Mining Network for Zero-Shot Learning [48.89161627050706]
本稿では,効果的な視覚・意味的相互作用を実現し,知識伝達のための属性間の意味的関係を学習するためのDual Relation Mining Network(DRMN)を提案する。
具体的には,多層的特徴融合により視覚情報を強化する視覚・意味的関係マイニングのためのデュアルアテンションブロック(DAB)を提案する。
セマンティック・インタラクション・トランスフォーマ(SIT)を用いて画像間の属性表現の一般化を促進する。
論文 参考訳(メタデータ) (2024-05-06T16:31:19Z) - Advancing Incremental Few-shot Semantic Segmentation via Semantic-guided
Relation Alignment and Adaptation [98.51938442785179]
増分的な数ショットセマンティックセマンティックセマンティクスは、セマンティクスセマンティクスモデルを新しいクラスに漸進的に拡張することを目的としている。
このタスクは、データ不均衡のため、ベースクラスと新しいクラスの間で深刻な意味認識の問題に直面します。
本稿では,従来の意味情報のガイダンスを完全に考慮した意味誘導型関係調整適応法を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:40:52Z) - Open-world Semantic Segmentation via Contrasting and Clustering
Vision-Language Embedding [95.78002228538841]
本研究では,様々なオープンワールドカテゴリのセマンティックオブジェクトを高密度アノテーションを使わずにセマンティックオブジェクトのセマンティックオブジェクトのセマンティック化を学習するための,新しいオープンワールドセマンティックセマンティックセマンティックセマンティクスパイプラインを提案する。
提案手法は任意のカテゴリのオブジェクトを直接分割し、3つのベンチマークデータセット上でデータラベリングを必要とするゼロショットセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2022-07-18T09:20:04Z) - Self-Supervised Visual Representation Learning with Semantic Grouping [50.14703605659837]
我々は、未ラベルのシーン中心のデータから視覚表現を学習する問題に取り組む。
本研究では,データ駆動型セマンティックスロット,すなわちSlotConによる協調型セマンティックグルーピングと表現学習のためのコントラスト学習を提案する。
論文 参考訳(メタデータ) (2022-05-30T17:50:59Z) - VGSE: Visually-Grounded Semantic Embeddings for Zero-Shot Learning [113.50220968583353]
ゼロショット学習のための識別的視覚特性を含むセマンティック埋め込みを発見することを提案する。
本モデルでは,画像の集合を視覚的類似性に応じて局所的な画像領域の集合に視覚的に分割する。
視覚的に接地されたセマンティック埋め込みは、様々なZSLモデルにまたがる単語埋め込みよりも、大きなマージンで性能を向上することを示した。
論文 参考訳(メタデータ) (2022-03-20T03:49:02Z) - Semantic Disentangling Generalized Zero-Shot Learning [50.259058462272435]
Generalized Zero-Shot Learning (GZSL)は、目に見えないカテゴリと見えないカテゴリの両方から画像を認識することを目的としている。
本稿では,エンコーダ・デコーダアーキテクチャに基づく新しい特徴分割手法を提案する。
提案モデルは,視像の固有特徴をキャプチャする品質意味一貫性表現を蒸留することを目的としている。
論文 参考訳(メタデータ) (2021-01-20T05:46:21Z) - From Pixel to Patch: Synthesize Context-aware Features for Zero-shot
Semantic Segmentation [22.88452754438478]
ゼロショットセマンティックセマンティックセマンティックセマンティクスは,カテゴリレベルのセマンティクスのみを持つ未確認オブジェクトのセマンティクスを目的としたセマンティクスである。
本研究では,コンテキスト認識機能生成ネットワーク(CaGNet)を提案する。
Pascal-VOC, Pascal-Context, COCO-stuff の実験結果から,本手法は既存のゼロショットセマンティックセマンティックセグメンテーション法よりも有意に優れていることが示された。
論文 参考訳(メタデータ) (2020-09-25T13:26:30Z) - A Novel Perspective to Zero-shot Learning: Towards an Alignment of
Manifold Structures via Semantic Feature Expansion [17.48923061278128]
ゼロショット学習の一般的な実践は、視覚的特徴空間と意味的特徴空間の間の投影をラベル付きクラス例で訓練することである。
このようなパラダイムの下では、既存のほとんどのメソッドは容易にドメインシフトの問題に悩まされ、ゼロショット認識の性能が低下する。
本稿では, 意味的特徴拡張による多様体構造のアライメントを考慮した AMS-SFE という新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-04-30T14:08:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。