論文の概要: MaskSplit: Self-supervised Meta-learning for Few-shot Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2110.12207v1
- Date: Sat, 23 Oct 2021 12:30:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 16:03:53.826364
- Title: MaskSplit: Self-supervised Meta-learning for Few-shot Semantic
Segmentation
- Title(参考訳): MaskSplit: ショットセマンティックセマンティックセグメンテーションのための自己教師型メタラーニング
- Authors: Mustafa Sercan Amac, Ahmet Sencan, Orhun Bugra Baran, Nazli
Ikizler-Cinbis, Ramazan Gokberk Cinbis
- Abstract要約: 本稿では,少数ショットセグメンテーションモデル学習のための自己教師付きトレーニング手法を提案する。
まず、教師なしサリエンシ推定を用いて画像上の擬似マスクを求める。
次に、擬似マスクの異なる分割と画像の拡張に対して、簡単なプロトタイプベースのモデルをトレーニングする。
- 参考スコア(独自算出の注目度): 10.809349710149533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Just like other few-shot learning problems, few-shot segmentation aims to
minimize the need for manual annotation, which is particularly costly in
segmentation tasks. Even though the few-shot setting reduces this cost for
novel test classes, there is still a need to annotate the training data. To
alleviate this need, we propose a self-supervised training approach for
learning few-shot segmentation models. We first use unsupervised saliency
estimation to obtain pseudo-masks on images. We then train a simple prototype
based model over different splits of pseudo masks and augmentations of images.
Our extensive experiments show that the proposed approach achieves promising
results, highlighting the potential of self-supervised training. To the best of
our knowledge this is the first work that addresses unsupervised few-shot
segmentation problem on natural images.
- Abstract(参考訳): 他のマイナショット学習問題と同様に、マイナショットセグメンテーションは、特にセグメンテーションタスクでコストがかかる手動アノテーションの必要性を最小限にすることを目的としている。
数ショット設定によって、新しいテストクラスのコストが削減されるが、トレーニングデータに注釈をつける必要がある。
このニーズを緩和するために,少人数セグメンテーションモデル学習のための自己教師あり学習手法を提案する。
まず、教師なしサリエンシ推定を用いて画像上の擬似マスクを求める。
次に、擬似マスクの異なる分割と画像の拡張に対して、簡単なプロトタイプベースのモデルをトレーニングする。
実験の結果,提案手法が有望な成果を出し,自己指導型トレーニングの可能性を強調した。
私たちの知る限りでは、これは自然画像上の教師なしの少数ショットセグメンテーション問題に対処する最初の作品です。
関連論文リスト
- Unsupervised Universal Image Segmentation [59.0383635597103]
本稿では,Unsupervised Universal Model (U2Seg) を提案する。
U2Segは、自己教師付きモデルを利用して、これらのセグメンテーションタスクの擬似意味ラベルを生成する。
次に、これらの擬似意味ラベル上でモデルを自己学習し、かなりの性能向上をもたらす。
論文 参考訳(メタデータ) (2023-12-28T18:59:04Z) - Segment, Select, Correct: A Framework for Weakly-Supervised Referring Segmentation [63.13635858586001]
参照画像(RIS)は、自然言語文を通して画像中の物体を識別する問題である。
本稿では、RISを3つのステップに分解することで、RISに対処する弱い教師付きフレームワークを提案する。
最初の2ステップ(ゼロショットセグメントとセレクト)のみを使用して、他のゼロショットベースラインを最大16.5%上回る。
論文 参考訳(メタデータ) (2023-10-20T13:20:17Z) - Shatter and Gather: Learning Referring Image Segmentation with Text
Supervision [52.46081425504072]
入力画像中の意味的エンティティを検出し,テキストクエリに関連するエンティティを組み合わせて参照者のマスクを予測するモデルを提案する。
提案手法は,イメージセグメンテーションを参照するための4つの公開ベンチマークで評価され,既存のタスクと最近の全てのベンチマークにおけるオープン語彙セグメンテーションモデルよりも明らかに優れていた。
論文 参考訳(メタデータ) (2023-08-29T15:39:15Z) - Diffuse, Attend, and Segment: Unsupervised Zero-Shot Segmentation using Stable Diffusion [24.02235805999193]
アノテーションを使わずに任意のものをゼロショットでセグメント化できるモデルを提案する。
注意マップ間のKLのばらつきを計測し,それらを有効なセグメンテーションマスクにマージする,シンプルで効果的な反復的マージ手法を提案する。
COCO-Stuff-27では,従来の教師なしゼロショットSOTA法を26%,IoU平均17%で上回っている。
論文 参考訳(メタデータ) (2023-08-23T23:44:44Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - One-shot and Partially-Supervised Cell Image Segmentation Using Small
Visual Prompt [9.873635079670091]
可能な限り少ないデータで効率的な学習フレームワークを考えます。
本稿では,1つのトレーニングサンプルだけで学習できるワンショットセグメンテーションと,画像の一部にアノテーションを割り当てる部分教師付きセグメンテーションという2つのタイプの学習戦略を提案する。
提案手法では,セル画像のみに基づく事前学習モデルを用いて,プロンプトペアの情報を対象画像に教える。
論文 参考訳(メタデータ) (2023-04-17T05:04:41Z) - Contrastive Learning for Self-Supervised Pre-Training of Point Cloud
Segmentation Networks With Image Data [7.145862669763328]
ラベルのないデータに対する自己教師付き事前トレーニングは、手動アノテーションの量を減らす方法のひとつだ。
画像と点の雲のモダリティを、まず自己教師付き画像の特徴を学習し、これらの特徴を使って3Dモデルを訓練する。
我々の事前学習法はシーンの1つのスキャンしか必要とせず、ローカライゼーション情報が利用できないケースにも適用できる。
論文 参考訳(メタデータ) (2023-01-18T03:14:14Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Few-Shot Image Classification via Contrastive Self-Supervised Learning [5.878021051195956]
本稿では,欠陥を修復するための教師なし数発学習の新たなパラダイムを提案する。
我々は2つのフェーズでいくつかの課題を解決した: 対照的な自己教師付き学習を通して、伝達可能な特徴抽出器をメタトレーニングする。
本手法は,標準的な数ショットの視覚的分類データセット上で,多数の確立された数ショットタスクにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-08-23T02:24:31Z) - Single-Stage Semantic Segmentation from Image Labels [25.041129173350104]
本研究は弱教師付き手法の3つの望ましい性質を定義する。
次に、セグメンテーションに基づくネットワークモデルと、セマンティックマスクのトレーニングのための自己教師型トレーニングスキームを開発する。
その単純さにもかかわらず、より複雑なパイプラインと競合する結果が得られる。
論文 参考訳(メタデータ) (2020-05-16T21:10:10Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。