論文の概要: Modeling the Background for Incremental Learning in Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2002.00718v2
- Date: Mon, 30 Mar 2020 14:01:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 09:06:11.284298
- Title: Modeling the Background for Incremental Learning in Semantic
Segmentation
- Title(参考訳): 意味セグメンテーションにおけるインクリメンタル学習の背景のモデル化
- Authors: Fabio Cermelli, Massimiliano Mancini, Samuel Rota Bul\`o, Elisa Ricci,
Barbara Caputo
- Abstract要約: 深いアーキテクチャは破滅的な忘れ方に弱い。
本稿では,意味的セグメンテーションの文脈においてこの問題に対処する。
本稿では,このシフトを明示的に考慮した蒸留法に基づく新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 39.025848280224785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite their effectiveness in a wide range of tasks, deep architectures
suffer from some important limitations. In particular, they are vulnerable to
catastrophic forgetting, i.e. they perform poorly when they are required to
update their model as new classes are available but the original training set
is not retained. This paper addresses this problem in the context of semantic
segmentation. Current strategies fail on this task because they do not consider
a peculiar aspect of semantic segmentation: since each training step provides
annotation only for a subset of all possible classes, pixels of the background
class (i.e. pixels that do not belong to any other classes) exhibit a semantic
distribution shift. In this work we revisit classical incremental learning
methods, proposing a new distillation-based framework which explicitly accounts
for this shift. Furthermore, we introduce a novel strategy to initialize
classifier's parameters, thus preventing biased predictions toward the
background class. We demonstrate the effectiveness of our approach with an
extensive evaluation on the Pascal-VOC 2012 and ADE20K datasets, significantly
outperforming state of the art incremental learning methods.
- Abstract(参考訳): 幅広いタスクで有効であるにもかかわらず、深いアーキテクチャにはいくつかの重要な制限がある。
特に、それらは破滅的な忘れ物、すなわち、新しいクラスが利用可能だが元のトレーニングセットが保持されていないため、モデルを更新する必要があるときにパフォーマンスが悪くなる。
本稿では,この問題を意味セグメンテーションの文脈で扱う。
それぞれのトレーニングステップは、すべての可能なクラスのサブセットに対してのみアノテーションを提供するので、バックグラウンドクラスのピクセル(例えば、他のクラスに属しないピクセル)は、セマンティックな分散シフトを示す。
本研究では,従来の漸進的学習手法を再考し,このシフトを明示的に考慮した蒸留に基づく新しいフレームワークを提案する。
さらに,分類器のパラメータを初期化する新しい戦略を導入し,背景クラスに対するバイアス予測を防止した。
本研究では,Pascal-VOC 2012およびADE20Kデータセットを広範囲に評価し,本手法の有効性を実証する。
関連論文リスト
- Early Preparation Pays Off: New Classifier Pre-tuning for Class Incremental Semantic Segmentation [13.62129805799111]
クラスインクリメンタルセマンティックセグメンテーションは、新しいタスクを学習しながら古い知識を保存することを目的としている。
それは破滅的な忘れ込みとバックグラウンドシフトの問題によって妨げられる。
そこで本研究では,正規学習プロセスの前に適用された新しい分類器プレチューニング(NeST)手法を提案する。
論文 参考訳(メタデータ) (2024-07-19T09:19:29Z) - ECLIPSE: Efficient Continual Learning in Panoptic Segmentation with Visual Prompt Tuning [54.68180752416519]
パノプティカルセグメンテーション(英: Panoptic segmentation)は、コンピュータビジョンの最先端タスクである。
ECLIPSE と呼ばれる Visual Prompt Tuning をベースとした,新規で効率的なパノプティカルセグメンテーション手法を提案する。
我々のアプローチは、基本モデルのパラメータを凍結し、小さなプロンプト埋め込みだけを微調整することであり、破滅的な忘れ物と塑性の両方に対処する。
論文 参考訳(メタデータ) (2024-03-29T11:31:12Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - Learning Context-aware Classifier for Semantic Segmentation [88.88198210948426]
本稿では,文脈認識型分類器の学習を通じて文脈ヒントを利用する。
本手法はモデルに依存しないため,ジェネリックセグメンテーションモデルにも容易に適用できる。
無視できる追加パラメータと+2%の推論時間だけで、小型モデルと大型モデルの両方で十分な性能向上が達成されている。
論文 参考訳(メタデータ) (2023-03-21T07:00:35Z) - Evidential Deep Learning for Class-Incremental Semantic Segmentation [15.563703446465823]
クラス増分学習(Class-Incremental Learning)は、以前トレーニングされたニューラルネットワークを新しいクラスに拡張することを目的とした機械学習の課題である。
本稿では、将来的な非相関クラスの特徴クラスタリングを回避しつつ、ラベルのないクラスをモデル化する方法の問題に対処する。
提案手法は,この問題をディリクレ分布の期待値と推定の不確実性に対応する未知のクラス(背景)確率で計算した,別のフォアグラウンドクラス確率に分解する。
論文 参考訳(メタデータ) (2022-12-06T10:13:30Z) - Modeling the Background for Incremental and Weakly-Supervised Semantic
Segmentation [39.025848280224785]
セマンティックセグメンテーションのための新しい漸進的なクラス学習手法を提案する。
各トレーニングステップは、すべての可能なクラスのサブセットにのみアノテーションを提供するので、バックグラウンドクラスのピクセルはセマンティックシフトを示す。
本研究では,Pascal-VOC,ADE20K,Cityscapesのデータセットを広範囲に評価し,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-01-31T16:33:21Z) - Tackling Catastrophic Forgetting and Background Shift in Continual
Semantic Segmentation [35.2461834832935]
セマンティックセグメンテーション(CSS)の継続的な学習は、新しいクラスを逐次追加することによって古いモデルを更新する、新たなトレンドである。
本稿では,長期・短距離空間関係を保存する多スケールプール蒸留方式であるLocal PODを提案する。
また,セグメンテーションに適した新しいリハーサル手法も導入する。
論文 参考訳(メタデータ) (2021-06-29T11:57:21Z) - A Few Guidelines for Incremental Few-Shot Segmentation [57.34237650765928]
事前訓練されたセグメンテーションモデルと、新しいクラスを含む画像が少ないことを前提として、我々が目指すのは、以前に見たセグメンテーション能力を維持しながら、新しいクラスをセグメンテーションすることである。
このシナリオにおけるエンド・ツー・エンドのトレーニングの主な問題はどのようなものかを示します。
一 バッチ正規化統計を、バッチ正規化で修正できる新しいクラスへ向けての漂流すること。
二 旧クラスの忘れ物 正規化戦略で解決できるもの。
論文 参考訳(メタデータ) (2020-11-30T20:45:56Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - Class-Incremental Learning for Semantic Segmentation Re-Using Neither
Old Data Nor Old Labels [35.586031601299034]
本稿では,モデルが当初トレーニングしたラベル付きデータを用いることなく,セマンティックセグメンテーションのためのクラスインクリメンタル学習を実装する手法を提案する。
本稿では,新しいクラスにのみラベルを必要とする新しいクラス増分学習手法を用いて,これらの問題を克服する方法を示す。
本手法をCityscapesデータセット上で評価し,全ベースラインのmIoU性能を3.5%絶対的に上回る結果を得た。
論文 参考訳(メタデータ) (2020-05-12T21:03:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。