論文の概要: Few-shot Class-Incremental Semantic Segmentation via Pseudo-Labeling and
Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2308.02790v1
- Date: Sat, 5 Aug 2023 05:05:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 18:37:06.764212
- Title: Few-shot Class-Incremental Semantic Segmentation via Pseudo-Labeling and
Knowledge Distillation
- Title(参考訳): pseudo-labeling と knowledge distillation によるクラスインクリメンタルセグメンテーション
- Authors: Chengjia Jiang, Tao Wang, Sien Li, Jinyang Wang, Shirui Wang, Antonios
Antoniou
- Abstract要約: セマンティックセグメンテーションモデルのための新しいクラスをいくつかの例から学習する問題に対処する。
限られたデータから学習するために、数発のトレーニングアノテーションを増強する擬似ラベル方式を提案する。
上記のステップを、統一的な学習目標を持つ単一の畳み込みニューラルネットワークに統合する。
- 参考スコア(独自算出の注目度): 3.4436201325139737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of learning new classes for semantic segmentation
models from few examples, which is challenging because of the following two
reasons. Firstly, it is difficult to learn from limited novel data to capture
the underlying class distribution. Secondly, it is challenging to retain
knowledge for existing classes and to avoid catastrophic forgetting. For
learning from limited data, we propose a pseudo-labeling strategy to augment
the few-shot training annotations in order to learn novel classes more
effectively. Given only one or a few images labeled with the novel classes and
a much larger set of unlabeled images, we transfer the knowledge from labeled
images to unlabeled images with a coarse-to-fine pseudo-labeling approach in
two steps. Specifically, we first match each labeled image to its nearest
neighbors in the unlabeled image set at the scene level, in order to obtain
images with a similar scene layout. This is followed by obtaining pseudo-labels
within this neighborhood by applying classifiers learned on the few-shot
annotations. In addition, we use knowledge distillation on both labeled and
unlabeled data to retain knowledge on existing classes. We integrate the above
steps into a single convolutional neural network with a unified learning
objective. Extensive experiments on the Cityscapes and KITTI datasets validate
the efficacy of the proposed approach in the self-driving domain. Code is
available from https://github.com/ChasonJiang/FSCILSS.
- Abstract(参考訳): セマンティックセグメンテーションモデルの新しいクラスをいくつかの例から学習する問題に対処するが、これは以下の2つの理由から困難である。
第一に、基礎となるクラス分布を捉えるために限られた新規データから学ぶことは困難である。
第二に、既存のクラスの知識を維持し、破滅的な忘れ物を避けることは困難である。
限られたデータから学ぶためには,新しい授業をより効果的に学ぶために,限定的な訓練アノテーションを強化する擬似ラベル戦略を提案する。
新しいクラスとずっと大きなラベル付き画像のセットでラベル付けされた画像が1つか数つだけある場合、ラベル付き画像からラベル付き画像への知識を2つのステップで粗く細かな擬似ラベル付けアプローチで転送します。
具体的には、シーンレベルに設定されたラベル付き画像において、ラベル付き画像と最寄りの画像とをマッチングし、類似したシーンレイアウトの画像を得る。
続いて、この近所で偽のラベルを入手し、マイナショットアノテーションで学習した分類器を適用する。
さらに,ラベル付きデータとラベルなしデータの両方に知識蒸留を用い,既存のクラスに関する知識を保持する。
上記のステップを、統一的な学習目標を持つ単一の畳み込みニューラルネットワークに統合する。
都市景観とkittiデータセットに関する広範な実験は、自動運転ドメインにおける提案手法の有効性を検証する。
コードはhttps://github.com/ChasonJiang/FSCILSSから入手できる。
関連論文リスト
- Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - A Closer Look at Self-training for Zero-Label Semantic Segmentation [53.4488444382874]
トレーニング中に見られないクラスをセグメント化できることは、ディープラーニングにおいて重要な技術的課題です。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
本研究では,同一画像の異なる増分から生じる擬似ラベルの交点を取り出し,ノイズの多い擬似ラベルをフィルタリングする整合性正規化器を提案する。
論文 参考訳(メタデータ) (2021-04-21T14:34:33Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Few Shot Learning With No Labels [28.91314299138311]
数少ない学習者は、少数のトレーニングサンプルしか与えていない新しいカテゴリを認識することを目指している。
主な課題は、限られたデータに過度に適合することを避け、新しいクラスへの優れた一般化を確実にすることだ。
既存の文献は、ラベル要件を新しいクラスからベースクラスに単純にシフトすることで、大量の注釈付きデータを利用する。
論文 参考訳(メタデータ) (2020-12-26T14:40:12Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Attention-Aware Noisy Label Learning for Image Classification [97.26664962498887]
大規模ラベル付きサンプルで学習した深層畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンにおいて顕著な進歩を遂げている。
大量のラベル付きビジュアルデータを取得する最も安価な方法は、Flickrのようなユーザーが提供するラベルでウェブサイトからクロールすることである。
本稿では,潜在的なラベルノイズのあるデータセットに基づいて学習したネットワークの識別能力を向上させるために,注目に敏感なラベル学習手法を提案する。
論文 参考訳(メタデータ) (2020-09-30T15:45:36Z) - SSKD: Self-Supervised Knowledge Distillation for Cross Domain Adaptive
Person Re-Identification [25.96221714337815]
ドメイン適応型人物再識別(re-ID)は、ソースドメインとターゲットドメインの間に大きな違いがあるため、難しい課題である。
既存の手法は主にクラスタリングアルゴリズムによって未ラベルのターゲット画像の擬似ラベルを生成する。
本稿では,識別学習とソフトラベル学習の2つのモジュールを含む自己監督的知識蒸留(SSKD)手法を提案する。
論文 参考訳(メタデータ) (2020-09-13T10:12:02Z) - Multi-label Zero-shot Classification by Learning to Transfer from
External Knowledge [36.04579549557464]
マルチラベルゼロショット分類は、入力画像に対する複数の未知のクラスラベルを予測することを目的としている。
本稿では,外部知識の伝達を学習することで,新たなゼロショット分類フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-30T17:26:46Z) - Semi-supervised Learning for Few-shot Image-to-Image Translation [89.48165936436183]
本稿では,SEMITと呼ばれる画像翻訳のための半教師付き手法を提案する。
提案手法は,ソースラベルの10%以下を用いて,4つの異なるデータセットに対して優れた結果を得る。
論文 参考訳(メタデータ) (2020-03-30T22:46:49Z) - Continual Local Replacement for Few-shot Learning [13.956960291580938]
少数ショット学習の目標は,1つないし少数のトレーニングデータに基づいて,新しいクラスを認識可能なモデルを学習することにある。
1)新しいクラスの優れた特徴表現が欠けていること、(2)ラベル付きデータの一部が真のデータ分布を正確に表現できないこと、である。
データ不足問題に対処するために,新たな局所的置換戦略を提案する。
論文 参考訳(メタデータ) (2020-01-23T04:26:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。