論文の概要: Context-aware Feature Generation for Zero-shot Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2008.06893v1
- Date: Sun, 16 Aug 2020 12:20:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 11:40:09.057719
- Title: Context-aware Feature Generation for Zero-shot Semantic Segmentation
- Title(参考訳): ゼロショットセマンティックセグメンテーションのための文脈認識特徴生成
- Authors: Zhangxuan Gu, and Siyuan Zhou, and Li Niu, and Zihan Zhao, and Liqing
Zhang
- Abstract要約: ゼロショットセグメンテーションのためのコンテキスト認識機能生成手法CaGNetを提案する。
提案手法は,ゼロショットセグメンテーションのための3つのベンチマークデータセットに対して,最先端の結果を得る。
- 参考スコア(独自算出の注目度): 18.37777970377439
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing semantic segmentation models heavily rely on dense pixel-wise
annotations. To reduce the annotation pressure, we focus on a challenging task
named zero-shot semantic segmentation, which aims to segment unseen objects
with zero annotations. This task can be accomplished by transferring knowledge
across categories via semantic word embeddings. In this paper, we propose a
novel context-aware feature generation method for zero-shot segmentation named
CaGNet. In particular, with the observation that a pixel-wise feature highly
depends on its contextual information, we insert a contextual module in a
segmentation network to capture the pixel-wise contextual information, which
guides the process of generating more diverse and context-aware features from
semantic word embeddings. Our method achieves state-of-the-art results on three
benchmark datasets for zero-shot segmentation. Codes are available at:
https://github.com/bcmi/CaGNet-Zero-Shot-Semantic-Segmentation.
- Abstract(参考訳): 既存のセマンティックセグメンテーションモデルは、高密度なピクセル単位のアノテーションに大きく依存している。
アノテーションのプレッシャーを減らすために、私たちはゼロショットセマンティクスセグメンテーションという難しいタスクに焦点を当てています。
このタスクは、セマンティックワードの埋め込みを通じてカテゴリ間で知識を伝達することで実現できる。
本稿では,ゼロショットセグメンテーションのための新しい文脈認識特徴生成手法であるcagnetを提案する。
特に、画素単位の特徴が文脈情報に大きく依存しているという観測から、セグメンテーションネットワークにコンテキストモジュールを挿入してピクセル単位の文脈情報をキャプチャし、意味的単語埋め込みからより多様でコンテキスト対応な特徴を生成するプロセスを導く。
提案手法は,ゼロショットセグメンテーションのための3つのベンチマークデータセットの最先端結果を実現する。
コードは、https://github.com/bcmi/CaGNet-Zero-Shot-Semantic-Segmentationで入手できる。
関連論文リスト
- Learning Semantic Segmentation with Query Points Supervision on Aerial Images [57.09251327650334]
セマンティックセグメンテーションアルゴリズムを学習するための弱教師付き学習アルゴリズムを提案する。
提案手法は正確なセマンティックセグメンテーションを行い,手作業のアノテーションに要するコストと時間を大幅に削減することで効率を向上する。
論文 参考訳(メタデータ) (2023-09-11T14:32:04Z) - Exploring Open-Vocabulary Semantic Segmentation without Human Labels [76.15862573035565]
我々は、既存の事前学習された視覚言語モデル(VL)を利用して意味的セグメンテーションモデルを訓練するZeroSegを提案する。
ZeroSegは、VLモデルで学んだ視覚概念をセグメントトークンの集合に蒸留することでこれを克服し、それぞれが対象画像の局所化領域を要約する。
提案手法は,他のゼロショットセグメンテーション法と比較して,同じトレーニングデータを用いた場合と比較して,最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T08:47:06Z) - Open-world Semantic Segmentation via Contrasting and Clustering
Vision-Language Embedding [95.78002228538841]
本研究では,様々なオープンワールドカテゴリのセマンティックオブジェクトを高密度アノテーションを使わずにセマンティックオブジェクトのセマンティックオブジェクトのセマンティック化を学習するための,新しいオープンワールドセマンティックセマンティックセマンティックセマンティクスパイプラインを提案する。
提案手法は任意のカテゴリのオブジェクトを直接分割し、3つのベンチマークデータセット上でデータラベリングを必要とするゼロショットセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2022-07-18T09:20:04Z) - SIGN: Spatial-information Incorporated Generative Network for
Generalized Zero-shot Semantic Segmentation [22.718908677552196]
ゼロショットセマンティックセグメンテーションは、画像レベルの代わりにピクセルレベルでクラスラベルを予測する。
Relative Positionalは特徴レベルで空間情報を統合し、任意の画像サイズを処理できる。
Anneal Self-Trainingは、自動的に異なる重要性を擬似ラベルに割り当てる。
論文 参考訳(メタデータ) (2021-08-27T22:18:24Z) - Universal Weakly Supervised Segmentation by Pixel-to-Segment Contrastive
Learning [28.498782661888775]
半教師付きメトリック学習問題として弱教師付きセグメンテーションを定式化する。
特徴空間における画素とセグメント間のコントラスト関係を4種類提案する。
我々はPascal VOCとDensePoseに大きな利益をもたらす、普遍的な弱教師付きセグメンタを提供する。
論文 参考訳(メタデータ) (2021-05-03T15:49:01Z) - Exploring Cross-Image Pixel Contrast for Semantic Segmentation [130.22216825377618]
完全教師付きセッティングにおけるセマンティックセグメンテーションのための画素単位のコントラストフレームワークを提案する。
中心となる考え方は、同じセマンティッククラスに属するピクセルの埋め込みを、異なるクラスの埋め込みよりもよく似ているように強制することである。
テスト中に余分なオーバーヘッドを伴わずに既存のセグメンテーションフレームワークに懸命に組み込むことができる。
論文 参考訳(メタデータ) (2021-01-28T11:35:32Z) - From Pixel to Patch: Synthesize Context-aware Features for Zero-shot
Semantic Segmentation [22.88452754438478]
ゼロショットセマンティックセマンティックセマンティックセマンティクスは,カテゴリレベルのセマンティクスのみを持つ未確認オブジェクトのセマンティクスを目的としたセマンティクスである。
本研究では,コンテキスト認識機能生成ネットワーク(CaGNet)を提案する。
Pascal-VOC, Pascal-Context, COCO-stuff の実験結果から,本手法は既存のゼロショットセマンティックセマンティックセグメンテーション法よりも有意に優れていることが示された。
論文 参考訳(メタデータ) (2020-09-25T13:26:30Z) - Improving Semantic Segmentation via Decoupled Body and Edge Supervision [89.57847958016981]
既存のセグメンテーションアプローチは、グローバルコンテキストをモデル化することでオブジェクトの内部の一貫性を改善すること、あるいはマルチスケールの特徴融合によって境界に沿ったオブジェクトの詳細を洗練することを目的としている。
本稿では,セマンティックセグメンテーションのための新しいパラダイムを提案する。
我々の洞察は、セマンティックセグメンテーションの魅力ある性能には、画像の高頻度と低頻度に対応するオブジェクトのテキストボディとテキストエッジを具体的にモデル化する必要があるということである。
さまざまなベースラインやバックボーンネットワークを備えた提案したフレームワークが,オブジェクト内部の一貫性とオブジェクト境界を向上させることを示す。
論文 参考訳(メタデータ) (2020-07-20T12:11:22Z) - SceneEncoder: Scene-Aware Semantic Segmentation of Point Clouds with A
Learnable Scene Descriptor [51.298760338410624]
本研究では,グローバル情報の効果を高めるために,シーン認識型ガイダンスを付加するSceneEncoderモジュールを提案する。
モジュールはシーン記述子を予測し、シーンに存在するオブジェクトのカテゴリを表現することを学習する。
また,同じラベルを持つ隣接点に対する特徴の識別を伝搬する領域類似度損失を設計する。
論文 参考訳(メタデータ) (2020-01-24T16:53:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。