論文の概要: Few-shot Semantic Segmentation with Self-supervision from Pseudo-classes
- arxiv url: http://arxiv.org/abs/2110.11742v1
- Date: Fri, 22 Oct 2021 12:32:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 13:53:50.372209
- Title: Few-shot Semantic Segmentation with Self-supervision from Pseudo-classes
- Title(参考訳): Pseudo-classes によるSemantic Segmentation
- Authors: Yiwen Li, Gratianus Wesley Putra Data, Yunguan Fu, Yipeng Hu, Victor
Adrian Prisacariu
- Abstract要約: 本稿では,クエリ画像の背景にランダムな擬似クラスを生成する自己教師型タスクを提案する。
この余分な監督により,一発作業における最先端手法の平均IoU性能を2.5%,5.1%改善した。
- 参考スコア(独自算出の注目度): 10.810190588101204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the success of deep learning methods for semantic segmentation,
few-shot semantic segmentation remains a challenging task due to the limited
training data and the generalisation requirement for unseen classes. While
recent progress has been particularly encouraging, we discover that existing
methods tend to have poor performance in terms of meanIoU when query images
contain other semantic classes besides the target class. To address this issue,
we propose a novel self-supervised task that generates random pseudo-classes in
the background of the query images, providing extra training data that would
otherwise be unavailable when predicting individual target classes. To that
end, we adopted superpixel segmentation for generating the pseudo-classes. With
this extra supervision, we improved the meanIoU performance of the
state-of-the-art method by 2.5% and 5.1% on the one-shot tasks, as well as 6.7%
and 4.4% on the five-shot tasks, on the PASCAL-5i and COCO benchmarks,
respectively.
- Abstract(参考訳): セマンティクスセグメンテーションのためのディープラーニング手法の成功にもかかわらず、限られたトレーニングデータとunseenクラスの一般化要件のため、数少ないセマンティクスセグメンテーションは依然として難しい課題である。
近年の進歩は特に促進されているが、クエリ画像がターゲットクラス以外の意味クラスを含む場合、既存のメソッドのパフォーマンスが低くなる傾向があることが判明した。
そこで本研究では,問合せ画像の背景にランダムな疑似クラスを生成し,個々の対象クラスを予測する際に利用できない追加のトレーニングデータを提供する,新しい自己教師付きタスクを提案する。
そこで我々は疑似クラスを生成するためにスーパーピクセルセグメンテーションを採用した。
この余分な監督により,PASCAL-5iおよびCOCOベンチマークでは,1ショットタスクでは2.5%,5.1%,5ショットタスクでは6.7%,4.4%のIoU性能が向上した。
関連論文リスト
- Exploring Open-Vocabulary Semantic Segmentation without Human Labels [76.15862573035565]
我々は、既存の事前学習された視覚言語モデル(VL)を利用して意味的セグメンテーションモデルを訓練するZeroSegを提案する。
ZeroSegは、VLモデルで学んだ視覚概念をセグメントトークンの集合に蒸留することでこれを克服し、それぞれが対象画像の局所化領域を要約する。
提案手法は,他のゼロショットセグメンテーション法と比較して,同じトレーニングデータを用いた場合と比較して,最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T08:47:06Z) - Scaling up Multi-domain Semantic Segmentation with Sentence Embeddings [81.09026586111811]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - Learning Meta-class Memory for Few-Shot Semantic Segmentation [90.28474742651422]
全てのクラスで共有可能なメタ情報であるメタクラスの概念を導入する。
本稿では,メタクラスメモリをベースとした少ショットセグメンテーション手法 (MM-Net) を提案する。
提案したMM-Netは1ショット設定でCOCOデータセット上で37.5%のmIoUを達成する。
論文 参考訳(メタデータ) (2021-08-06T06:29:59Z) - Attention-Guided Supervised Contrastive Learning for Semantic
Segmentation [16.729068267453897]
画素ごとの予測タスクでは、セグメンテーションのために1つのイメージに複数のラベルが存在する可能性がある。
本研究では,1つの意味的対象を目標として毎回強調する,注意誘導型教師付きコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2021-06-03T05:01:11Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Mining Latent Classes for Few-shot Segmentation [23.207191521477654]
少数の注釈付きサンプルしか与えられない、見えないクラスをセグメンテーションすることを目標とするショットセグメンテーション。
本手法は,この問題を緩和し,潜在新規クラスに組み込む機能を強化することを目的としている。
PASCAL-5iでは3.7% mIOU,COCO-20iでは7.0% mIOUと,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2021-03-29T07:59:10Z) - Few-Shot Segmentation Without Meta-Learning: A Good Transductive
Inference Is All You Need? [34.95314059362982]
数ショットのセグメンテーションタスクにおける推論の実行方法が性能に重大な影響を及ぼすことを示す。
与えられたクエリー画像に対するトランスダクティブ推論を導入し、ラベルなし画素の統計情報を活用する。
提案手法は,5分と10秒のシナリオにおいて,最先端よりも約5%と6%の改善をもたらすことを示す。
論文 参考訳(メタデータ) (2020-12-11T07:11:19Z) - Dense Contrastive Learning for Self-Supervised Visual Pre-Training [102.15325936477362]
入力画像の2つのビュー間の画素レベルでの差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分)を最適化することにより自己教師学習を実現する。
ベースライン法であるMoCo-v2と比較すると,計算オーバーヘッドは1%遅かった。
論文 参考訳(メタデータ) (2020-11-18T08:42:32Z) - Objectness-Aware Few-Shot Semantic Segmentation [31.13009111054977]
モデル全体のキャパシティを向上し、パフォーマンスを向上させる方法を示す。
我々は、クラス非依存であり、過度に適合しがちな客観性を導入する。
注釈のないカテゴリの例が1つだけあると、実験により、mIoUに関して、我々の手法が最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2020-04-06T19:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。