論文の概要: A Closer Look at Self-training for Zero-Label Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2104.11692v1
- Date: Wed, 21 Apr 2021 14:34:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 13:04:24.650192
- Title: A Closer Look at Self-training for Zero-Label Semantic Segmentation
- Title(参考訳): ゼロラベルセマンティックセマンティックセグメンテーションのための自己学習
- Authors: Giuseppe Pastore, Fabio Cermelli, Yongqin Xian, Massimiliano Mancini,
Zeynep Akata, Barbara Caputo
- Abstract要約: トレーニング中に見られないクラスをセグメント化できることは、ディープラーニングにおいて重要な技術的課題です。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
本研究では,同一画像の異なる増分から生じる擬似ラベルの交点を取り出し,ノイズの多い擬似ラベルをフィルタリングする整合性正規化器を提案する。
- 参考スコア(独自算出の注目度): 53.4488444382874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Being able to segment unseen classes not observed during training is an
important technical challenge in deep learning, because of its potential to
reduce the expensive annotation required for semantic segmentation. Prior
zero-label semantic segmentation works approach this task by learning
visual-semantic embeddings or generative models. However, they are prone to
overfitting on the seen classes because there is no training signal for them.
In this paper, we study the challenging generalized zero-label semantic
segmentation task where the model has to segment both seen and unseen classes
at test time. We assume that pixels of unseen classes could be present in the
training images but without being annotated. Our idea is to capture the latent
information on unseen classes by supervising the model with self-produced
pseudo-labels for unlabeled pixels. We propose a consistency regularizer to
filter out noisy pseudo-labels by taking the intersections of the pseudo-labels
generated from different augmentations of the same image. Our framework
generates pseudo-labels and then retrain the model with human-annotated and
pseudo-labelled data. This procedure is repeated for several iterations. As a
result, our approach achieves the new state-of-the-art on PascalVOC12 and
COCO-stuff datasets in the challenging generalized zero-label semantic
segmentation setting, surpassing other existing methods addressing this task
with more complex strategies.
- Abstract(参考訳): トレーニング中に観察されないクラスをセグメント化できることは、セマンティックセグメンテーションに必要な高価なアノテーションを減らす可能性があるため、ディープラーニングにおいて重要な技術的課題である。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
しかし、訓練信号がないため、見事な授業に過度に適合する傾向にある。
本稿では,モデルがテスト時に目に見えないクラスと見えないクラスの両方をセグメント化しなければならない,汎用ゼロラベルセマンティックセマンティックセマンティクスタスクについて検討する。
訓練画像には未発見のクラスのピクセルが存在するが、注釈は付かないと仮定する。
我々の考えは、未表示のピクセルに対して自己生成の擬似ラベルでモデルを監督することで、未確認クラスの潜伏情報をキャプチャすることである。
同一画像の異なる拡張から生成された擬似ラベルの交点を取り上げ,ノイズの多い擬似ラベルをフィルタリングする整合正則化器を提案する。
本フレームワークは擬似ラベルを生成し,擬似ラベルデータを用いてモデルを再学習する。
この手順は何度も繰り返される。
その結果,pascalvoc12 と coco-stuff データセットを,より複雑な戦略でこの問題に取り組む他の既存手法を上回って,一般化されたゼロラベルセマンティクスセグメンテーション設定で実現した。
関連論文リスト
- Scribbles for All: Benchmarking Scribble Supervised Segmentation Across Datasets [51.74296438621836]
Scribbles for Allは、スクリブルラベルに基づいて訓練されたセマンティックセグメンテーションのためのラベルおよびトレーニングデータ生成アルゴリズムである。
弱い監督の源泉としてのスクリブルの主な制限は、スクリブルセグメンテーションのための挑戦的なデータセットの欠如である。
Scribbles for Allは、いくつかの人気のあるセグメンテーションデータセットのスクリブルラベルを提供し、密集したアノテーションを持つデータセットのスクリブルラベルを自動的に生成するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2024-08-22T15:29:08Z) - Unsupervised Universal Image Segmentation [59.0383635597103]
本稿では,Unsupervised Universal Model (U2Seg) を提案する。
U2Segは、自己教師付きモデルを利用して、これらのセグメンテーションタスクの擬似意味ラベルを生成する。
次に、これらの擬似意味ラベル上でモデルを自己学習し、かなりの性能向上をもたらす。
論文 参考訳(メタデータ) (2023-12-28T18:59:04Z) - Dataset Diffusion: Diffusion-based Synthetic Dataset Generation for
Pixel-Level Semantic Segmentation [6.82236459614491]
テキストから画像への生成モデルであるStable Diffusionを用いて,ピクセルレベルのセマンティックセマンティックセマンティクスラベルを生成する手法を提案する。
テキストプロンプト,クロスアテンション,SDの自己アテンションを活用することで,クラスプロンプト付加,クラスプロンプト横断アテンション,自己アテンション指数の3つの新しい手法を導入する。
これらの手法により合成画像に対応するセグメンテーションマップを生成することができる。
論文 参考訳(メタデータ) (2023-09-25T17:19:26Z) - Learning Semantic Segmentation with Query Points Supervision on Aerial Images [57.09251327650334]
セマンティックセグメンテーションアルゴリズムを学習するための弱教師付き学習アルゴリズムを提案する。
提案手法は正確なセマンティックセグメンテーションを行い,手作業のアノテーションに要するコストと時間を大幅に削減することで効率を向上する。
論文 参考訳(メタデータ) (2023-09-11T14:32:04Z) - RaSP: Relation-aware Semantic Prior for Weakly Supervised Incremental
Segmentation [28.02204928717511]
本稿では,事前学習したクラスから新しいクラスにオブジェクトを移すための弱い教師付きアプローチを提案する。
クラス間の単純なペアインタラクションでさえ、古いクラスと新しいクラスのセグメンテーションマスクの品質を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-31T14:14:21Z) - Segment Anything Model (SAM) Enhanced Pseudo Labels for Weakly
Supervised Semantic Segmentation [30.812323329239614]
弱教師付きセマンティックセマンティックセグメンテーション(WSSS)は、画像レベルのアノテーションのみを使用することで、精細なピクセルレベルのアノテーションの必要性を回避することを目的としている。
既存のほとんどのメソッドは、ピクセルレベルの擬似ラベルを導出するためにクラスアクティベーションマップ(CAM)に依存している。
オブジェクト,部品,サブパートのきめ細かいインスタンスマスクを生成できるクラスに依存しない基礎モデルであるSegment Anything Model (SAM) を利用した,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2023-05-09T23:24:09Z) - LESS: Label-Efficient Semantic Segmentation for LiDAR Point Clouds [62.49198183539889]
我々は,LiDAR点雲を用いた屋外シーンのためのラベル効率のよいセマンティックセマンティックセマンティクスパイプラインを提案する。
本手法は,半弱教師付き学習を用いて,効率的なラベリング手法を設計する。
提案手法は,100%ラベル付き完全教師付き手法と比較して,さらに競争力が高い。
論文 参考訳(メタデータ) (2022-10-14T19:13:36Z) - Incremental Learning in Semantic Segmentation from Image Labels [18.404068463921426]
既存のセマンティックセグメンテーションアプローチは印象的な結果を得るが、新しいカテゴリが発見されるにつれてモデルを漸進的に更新することは困難である。
本稿では、安価で広く利用可能な画像レベルのラベルから新しいクラスを分類することを目的とした、Weakly Incremental Learning for Semanticsのための新しいフレームワークを提案する。
擬似ラベルをオフラインで生成する既存のアプローチとは対照的に、画像レベルのラベルで訓練され、セグメンテーションモデルで正規化される補助分類器を使用して、擬似スーパービジョンをオンラインで取得し、モデルを漸進的に更新する。
論文 参考訳(メタデータ) (2021-12-03T12:47:12Z) - Automatically Discovering and Learning New Visual Categories with
Ranking Statistics [145.89790963544314]
我々は,他のクラスをラベル付けした画像コレクションにおいて,新しいクラスを発見する問題に対処する。
汎用クラスタリングモデルを学び、後者を用いて、非競合データ中の新しいクラスを識別する。
我々は,標準分類ベンチマークに対するアプローチと,新しいカテゴリー発見法の性能を,有意なマージンで評価した。
論文 参考訳(メタデータ) (2020-02-13T18:53:32Z) - Discovering Latent Classes for Semi-Supervised Semantic Segmentation [18.5909667833129]
本稿では,半教師付きセマンティックセグメンテーションの問題について検討する。
ラベル付き画像のセマンティッククラスと一致した潜在クラスを学習する。
提案手法は,半教師付きセマンティックセグメンテーションのための技術結果の状態を達成している。
論文 参考訳(メタデータ) (2019-12-30T14:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。