論文の概要: SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes
- arxiv url: http://arxiv.org/abs/2104.09216v1
- Date: Mon, 19 Apr 2021 11:21:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:38:33.042308
- Title: SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes
- Title(参考訳): SCNet:自己コントラスト背景型によるFew-Shot Semantic Segmentationの強化
- Authors: Jiacheng Chen, Bin-Bin Gao, Zongqing Lu, Jing-Hao Xue, Chengjie Wang,
Qingmin Liao
- Abstract要約: Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
- 参考スコア(独自算出の注目度): 56.387647750094466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot semantic segmentation aims to segment novel-class objects in a query
image with only a few annotated examples in support images. Most of advanced
solutions exploit a metric learning framework that performs segmentation
through matching each pixel to a learned foreground prototype. However, this
framework suffers from biased classification due to incomplete construction of
sample pairs with the foreground prototype only. To address this issue, in this
paper, we introduce a complementary self-contrastive task into few-shot
semantic segmentation. Our new model is able to associate the pixels in a
region with the prototype of this region, no matter they are in the foreground
or background. To this end, we generate self-contrastive background prototypes
directly from the query image, with which we enable the construction of
complete sample pairs and thus a complementary and auxiliary segmentation task
to achieve the training of a better segmentation model. Extensive experiments
on PASCAL-5$^i$ and COCO-20$^i$ demonstrate clearly the superiority of our
proposal. At no expense of inference efficiency, our model achieves
state-of-the results in both 1-shot and 5-shot settings for few-shot semantic
segmentation.
- Abstract(参考訳): Few-shotのセマンティックセマンティックセマンティクスは、新しいクラスオブジェクトをクエリイメージにセグメントすることを目的としており、サポートイメージに注釈付きの例がわずかである。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
しかし、このフレームワークは、前景のプロトタイプのみとサンプルペアの不完全な構成のため、偏りのある分類に苦しむ。
この問題に対処するため,本稿では,小ショットセマンティクスセグメンテーションにおける補完的自己結合的タスクを提案する。
私たちの新しいモデルは、フォアグラウンドでも背景でも、領域内のピクセルとこの領域のプロトタイプを関連付けることができます。
この目的のために,クエリ画像から直接自己コントラストの背景プロトタイプを生成し,完全なサンプルペアの構築を可能にし,補完的かつ補助的なセグメンテーションタスクにより,より良いセグメンテーションモデルのトレーニングを実現する。
PASCAL-5$^i$とCOCO-20$^i$の大規模な実験により,提案手法の優位性が明らかとなった。
推論効率を犠牲にすることなく、1ショットと5ショットの両方のセマンティクスセグメンテーションで結果が得られた。
関連論文リスト
- Correlation Weighted Prototype-based Self-Supervised One-Shot Segmentation of Medical Images [12.365801596593936]
医用画像セグメンテーションは、十分な注釈付きデータが入手できない領域の1つである。
スーパーピクセルから生成された擬似ラベルを用いた,プロトタイプベースのワンショット学習フレームワークを提案する。
提案手法は,最先端の手法と同等に機能することを示す。
論文 参考訳(メタデータ) (2024-08-12T15:38:51Z) - Leveraging GAN Priors for Few-Shot Part Segmentation [43.35150430895919]
わずかなショット部分のセグメンテーションは、少数のサンプルしか与えられていないオブジェクトの異なる部分を切り離すことを目的としている。
本稿では,タスク固有の特徴を「事前学習」-「微調整」パラダイムで学習することを提案する。
論文 参考訳(メタデータ) (2022-07-27T10:17:07Z) - Beyond the Prototype: Divide-and-conquer Proxies for Few-shot
Segmentation [63.910211095033596]
少ないショットのセグメンテーションは、少数の濃密なラベル付けされたサンプルのみを与えられた、目に見えないクラスオブジェクトをセグメンテーションすることを目的としている。
分割・分散の精神において, 単純かつ多目的な枠組みを提案する。
提案手法は、DCP(disvision-and-conquer proxies)と呼ばれるもので、適切な信頼性のある情報の開発を可能にする。
論文 参考訳(メタデータ) (2022-04-21T06:21:14Z) - A Simple Baseline for Zero-shot Semantic Segmentation with Pre-trained
Vision-language Model [61.58071099082296]
オブジェクト検出やセマンティックセグメンテーションといった、より広範な視覚問題に対して、ゼロショット認識をどのようにうまく機能させるかは定かではない。
本稿では,既訓練の視覚言語モデルであるCLIPを用いて,ゼロショットセマンティックセマンティックセマンティックセマンティクスを構築することを目的とした。
実験結果から, この単純なフレームワークは, 従来の最先端をはるかに上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2021-12-29T18:56:18Z) - APANet: Adaptive Prototypes Alignment Network for Few-Shot Semantic
Segmentation [56.387647750094466]
Few-shotのセマンティックセマンティックセマンティクスは、指定されたクエリイメージに、ラベル付きサポートイメージのみで、新規クラスのオブジェクトをセグメントすることを目的としている。
ほとんどの高度なソリューションは、各クエリ機能を学習したクラス固有のプロトタイプにマッチさせることでセグメンテーションを実行するメトリクス学習フレームワークを利用している。
本稿では,クラス固有およびクラス非依存のプロトタイプを導入することで,適応型プロトタイプ表現を提案する。
論文 参考訳(メタデータ) (2021-11-24T04:38:37Z) - Semantically Meaningful Class Prototype Learning for One-Shot Image
Semantic Segmentation [58.96902899546075]
ワンショットセマンティックイメージセグメンテーションは、1つの注釈付きイメージで新しいクラスのオブジェクト領域を分割することを目的としている。
最近の研究では、テスト時に予想される状況を模倣するために、エピソディクストレーニング戦略を採用している。
エピソードトレーニングにおいて,マルチクラスラベル情報を活用することを提案する。
ネットワークが各カテゴリに対してより意味のある機能を生成するように促すだろう。
論文 参考訳(メタデータ) (2021-02-22T12:07:35Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。