論文の概要: Few-Shot Segmentation Without Meta-Learning: A Good Transductive
Inference Is All You Need?
- arxiv url: http://arxiv.org/abs/2012.06166v2
- Date: Mon, 29 Mar 2021 21:03:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 03:01:12.404095
- Title: Few-Shot Segmentation Without Meta-Learning: A Good Transductive
Inference Is All You Need?
- Title(参考訳): メタ学習なしのセグメンテーション:良いトランスダクティブ推論は必要か?
- Authors: Malik Boudiaf, Hoel Kervadec, Ziko Imtiaz Masud, Pablo Piantanida,
Ismail Ben Ayed, Jose Dolz
- Abstract要約: 数ショットのセグメンテーションタスクにおける推論の実行方法が性能に重大な影響を及ぼすことを示す。
与えられたクエリー画像に対するトランスダクティブ推論を導入し、ラベルなし画素の統計情報を活用する。
提案手法は,5分と10秒のシナリオにおいて,最先端よりも約5%と6%の改善をもたらすことを示す。
- 参考スコア(独自算出の注目度): 34.95314059362982
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We show that the way inference is performed in few-shot segmentation tasks
has a substantial effect on performances -- an aspect often overlooked in the
literature in favor of the meta-learning paradigm. We introduce a transductive
inference for a given query image, leveraging the statistics of its unlabeled
pixels, by optimizing a new loss containing three complementary terms: i) the
cross-entropy on the labeled support pixels; ii) the Shannon entropy of the
posteriors on the unlabeled query-image pixels; and iii) a global KL-divergence
regularizer based on the proportion of the predicted foreground. As our
inference uses a simple linear classifier of the extracted features, its
computational load is comparable to inductive inference and can be used on top
of any base training. Foregoing episodic training and using only standard
cross-entropy training on the base classes, our inference yields competitive
performances on standard benchmarks in the 1-shot scenarios. As the number of
available shots increases, the gap in performances widens: on PASCAL-5i, our
method brings about 5% and 6% improvements over the state-of-the-art, in the 5-
and 10-shot scenarios, respectively. Furthermore, we introduce a new setting
that includes domain shifts, where the base and novel classes are drawn from
different datasets. Our method achieves the best performances in this more
realistic setting. Our code is freely available online:
https://github.com/mboudiaf/RePRI-for-Few-Shot-Segmentation.
- Abstract(参考訳): 数ショットのセグメンテーションタスクにおける推論の実行方法がパフォーマンスに重大な影響を与えていることが、メタラーニングパラダイムを支持する文献でしばしば見過ごされる側面であることを示している。
与えられたクエリ画像に対するトランスダクティブ推論を導入し、ラベル付きサポート画素のクロスエントロピー(i)ラベル付きクエリイメージ画素の後方のシャノンエントロピー(i)予測されたフォアグラウンドの比率に基づくグローバルKL分割正規化器(iii)という3つの補完的な用語を含む新たな損失を最適化する。
我々の推論では抽出した特徴の単純な線形分類器を用いており、その計算負荷は帰納的推論に匹敵するものであり、どんなベーストレーニングでも利用できる。
基礎クラスでの標準クロスエントロピートレーニングのみを使用して,エピソディックトレーニングを前倒ししにすることで,1-shotシナリオにおける標準ベンチマークの競争力が向上する。
PASCAL-5iでは,5ショットシナリオと10ショットシナリオにおいて,現状よりも5%,6%向上した。
さらに、異なるデータセットからベースクラスと新しいクラスを描画するドメインシフトを含む新しい設定を導入する。
提案手法は,このより現実的な環境で最高の性能を実現する。
私たちのコードはオンラインで無料で利用可能です。
関連論文リスト
- Intra-task Mutual Attention based Vision Transformer for Few-Shot Learning [12.5354658533836]
人間は、ほんのわずかの例に晒された後に、新しい、目に見えない画像を正確に分類する能力を持っている。
人工ニューラルネットワークモデルでは、限られたサンプルを持つ2つのイメージを区別する最も関連性の高い特徴を決定することが課題である。
本稿では,サポートとクエリサンプルをパッチに分割するタスク内相互注意手法を提案する。
論文 参考訳(メタデータ) (2024-05-06T02:02:57Z) - Transductive Zero-Shot and Few-Shot CLIP [24.592841797020203]
本稿では,トランスダクティブなゼロショットと少数ショットのCLIP分類問題に対処する。
推論は、各インスタンスを独立して扱うのではなく、ラベルのないクエリサンプルのミニバッチで共同で実行される。
提案手法は,CLIPのゼロショット性能に対して,画像ネットの精度を約20%向上させる。
論文 参考訳(メタデータ) (2024-04-08T12:44:31Z) - Boosting Few-Shot Segmentation via Instance-Aware Data Augmentation and
Local Consensus Guided Cross Attention [7.939095881813804]
少ないショットセグメンテーションは、注釈付き画像のみを提供する新しいタスクに迅速に適応できるセグメンテーションモデルをトレーニングすることを目的としている。
本稿では,対象オブジェクトの相対的サイズに基づいて,サポートイメージを拡大するIDA戦略を提案する。
提案したIDAは,サポートセットの多様性を効果的に向上し,サポートイメージとクエリイメージ間の分散一貫性を促進する。
論文 参考訳(メタデータ) (2024-01-18T10:29:10Z) - Prediction Calibration for Generalized Few-shot Semantic Segmentation [101.69940565204816]
汎用Few-shot Semantic (GFSS) は、各画像ピクセルを、豊富なトレーニング例を持つベースクラスか、クラスごとにわずかに(例: 1-5)のトレーニングイメージを持つ新しいクラスのいずれかに分割することを目的としている。
我々は、融合したマルチレベル機能を用いて、分類器の最終予測をガイドするクロスアテンションモジュールを構築する。
私たちのPCNは、最先端の代替品よりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2022-10-15T13:30:12Z) - Transductive Decoupled Variational Inference for Few-Shot Classification [2.538209532048867]
ほとんどショットの学習は、この機能をマシンに渡すための努力だ。
少数ショット分類のための新しい変分推論ネットワーク(TRIDENT)を提案する。
我々は、新しいアテンションベースのトランスダクティブ特徴抽出モジュール(AttFEXと呼ぶ)を使用して、クエリと数ショットタスクのサポート両方の情報を利用する。
論文 参考訳(メタデータ) (2022-08-22T19:27:09Z) - Learning What Not to Segment: A New Perspective on Few-Shot Segmentation [63.910211095033596]
近年では、FSS ( few-shot segmentation) が広く開発されている。
本稿では,問題を緩和するための新鮮で直接的な知見を提案する。
提案されたアプローチのユニークな性質を踏まえて、より現実的で挑戦的な設定にまで拡張する。
論文 参考訳(メタデータ) (2022-03-15T03:08:27Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - A Few Guidelines for Incremental Few-Shot Segmentation [57.34237650765928]
事前訓練されたセグメンテーションモデルと、新しいクラスを含む画像が少ないことを前提として、我々が目指すのは、以前に見たセグメンテーション能力を維持しながら、新しいクラスをセグメンテーションすることである。
このシナリオにおけるエンド・ツー・エンドのトレーニングの主な問題はどのようなものかを示します。
一 バッチ正規化統計を、バッチ正規化で修正できる新しいクラスへ向けての漂流すること。
二 旧クラスの忘れ物 正規化戦略で解決できるもの。
論文 参考訳(メタデータ) (2020-11-30T20:45:56Z) - Pixel-Level Cycle Association: A New Perspective for Domain Adaptive
Semantic Segmentation [169.82760468633236]
本稿では,ソースとターゲットの画素ペア間の画素レベルサイクルの関連性を構築することを提案する。
我々の手法は1段階のエンドツーエンドで訓練でき、追加のパラメータは導入しない。
論文 参考訳(メタデータ) (2020-10-31T00:11:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。