論文の概要: Evidential Deep Learning for Class-Incremental Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2212.02863v1
- Date: Tue, 6 Dec 2022 10:13:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 17:00:02.260367
- Title: Evidential Deep Learning for Class-Incremental Semantic Segmentation
- Title(参考訳): クラスインクリメンタルセマンティックセグメンテーションのための証拠深層学習
- Authors: Karl Holmquist, Lena Klas\'en, Michael Felsberg
- Abstract要約: クラス増分学習(Class-Incremental Learning)は、以前トレーニングされたニューラルネットワークを新しいクラスに拡張することを目的とした機械学習の課題である。
本稿では、将来的な非相関クラスの特徴クラスタリングを回避しつつ、ラベルのないクラスをモデル化する方法の問題に対処する。
提案手法は,この問題をディリクレ分布の期待値と推定の不確実性に対応する未知のクラス(背景)確率で計算した,別のフォアグラウンドクラス確率に分解する。
- 参考スコア(独自算出の注目度): 15.563703446465823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class-Incremental Learning is a challenging problem in machine learning that
aims to extend previously trained neural networks with new classes. This is
especially useful if the system is able to classify new objects despite the
original training data being unavailable. While the semantic segmentation
problem has received less attention than classification, it poses distinct
problems and challenges since previous and future target classes can be
unlabeled in the images of a single increment. In this case, the background,
past and future classes are correlated and there exist a background-shift. In
this paper, we address the problem of how to model unlabeled classes while
avoiding spurious feature clustering of future uncorrelated classes. We propose
to use Evidential Deep Learning to model the evidence of the classes as a
Dirichlet distribution. Our method factorizes the problem into a separate
foreground class probability, calculated by the expected value of the Dirichlet
distribution, and an unknown class (background) probability corresponding to
the uncertainty of the estimate. In our novel formulation, the background
probability is implicitly modeled, avoiding the feature space clustering that
comes from forcing the model to output a high background score for pixels that
are not labeled as objects. Experiments on the incremental Pascal VOC, and
ADE20k benchmarks show that our method is superior to state-of-the-art,
especially when repeatedly learning new classes with increasing number of
increments.
- Abstract(参考訳): クラス増分学習(Class-Incremental Learning)は、以前トレーニングされたニューラルネットワークを新しいクラスに拡張することを目的とした機械学習の課題である。
これは、システムが元のトレーニングデータが利用できないにもかかわらず、新しいオブジェクトを分類できる場合に特に便利である。
セマンティクスのセグメンテーション問題は分類よりもあまり注目されていないが、前と将来のターゲットクラスが単一のインクリメントのイメージにラベル付けされないため、異なる問題と課題をもたらす。
この場合、背景、過去、将来のクラスは相関しており、背景シフトが存在する。
本稿では,ラベルなしクラスをモデル化する方法の問題に対処し,将来的非相関クラスの多彩な特徴クラスタリングを回避する。
我々は,授業の証拠をディリクレ分布としてモデル化するために,エビデンシャル・ディープ・ラーニング(Evidential Deep Learning)を提案する。
本手法は,ディリクレ分布の期待値と推定の不確かさに対応する未知のクラス(背景)確率によって計算される,別個のフォアグラウンドクラス確率に問題を分解する。
我々の新しい定式化において、背景確率は暗黙的にモデル化され、オブジェクトとしてラベル付けされていないピクセルに対して高い背景スコアを出力することを強制することによる特徴空間クラスタリングを避ける。
インクリメンタルパスカルvocとade20kベンチマークの実験では、特にインクリメント数が増加する新しいクラスを繰り返し学習する場合において、この手法は最先端の手法よりも優れていることが示されている。
関連論文リスト
- Covariance-based Space Regularization for Few-shot Class Incremental Learning [25.435192867105552]
FSCIL(Few-shot Class Incremental Learning)では,ラベル付きデータに制限のあるクラスを継続的に学習する必要がある。
インクリメンタルセッションにおける限られたデータのため、モデルは新しいクラスを過度に適合させ、ベースクラスの破滅的な忘れを苦しむ傾向にある。
最近の進歩は、基本クラス分布を制約し、新しいクラスの識別的表現を学習するプロトタイプベースのアプローチに頼っている。
論文 参考訳(メタデータ) (2024-11-02T08:03:04Z) - Happy: A Debiased Learning Framework for Continual Generalized Category Discovery [54.54153155039062]
本稿では,C-GCD(Continuous Generalized Category Discovery)の未探索課題について考察する。
C-GCDは、学習済みのクラスを認識する能力を維持しながら、ラベルのないデータから新しいクラスを漸進的に発見することを目的としている。
本稿では,ハードネスを意識したプロトタイプサンプリングとソフトエントロピー正規化を特徴とする,偏りのある学習フレームワークであるHappyを紹介する。
論文 参考訳(メタデータ) (2024-10-09T04:18:51Z) - Tendency-driven Mutual Exclusivity for Weakly Supervised Incremental Semantic Segmentation [56.1776710527814]
Weakly Incremental Learning for Semantic (WILSS)は、トレーニング済みのセグメンテーションモデルを利用して、コスト効率と手軽に利用できるイメージレベルのラベルを使用して、新しいクラスをセグメンテーションする。
WILSSを解く最も一般的な方法は、各新しいクラスのシード領域の生成であり、ピクセルレベルの監視の一形態として機能する。
本研究は, 種子領域の挙動を綿密に調整した, 相互排他性に関する革新的, 傾向的関係について提案する。
論文 参考訳(メタデータ) (2024-04-18T08:23:24Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Generalization Bounds for Few-Shot Transfer Learning with Pretrained
Classifiers [26.844410679685424]
本研究では,新しいクラスに移動可能な分類の表現を基礎モデルで学習する能力について検討する。
クラス-機能-変数の崩壊の場合,新しいクラスで学習した特徴マップのわずかな誤差が小さいことを示す。
論文 参考訳(メタデータ) (2022-12-23T18:46:05Z) - GMM-IL: Image Classification using Incrementally Learnt, Independent
Probabilistic Models for Small Sample Sizes [0.4511923587827301]
本稿では,視覚的特徴学習と確率モデルを組み合わせた2段階アーキテクチャを提案する。
我々は、ソフトマックスヘッドを用いた等価ネットワークのベンチマークを上回り、サンプルサイズが12以下の場合の精度が向上し、3つの不均衡なクラスプロファイルに対する重み付きF1スコアが向上した。
論文 参考訳(メタデータ) (2022-12-01T15:19:42Z) - Few-shot Open-set Recognition Using Background as Unknowns [58.04165813493666]
未使用のオープンセット認識は、見知らぬクラスの限られた訓練データしか持たない、目に見える画像と新しい画像の両方を分類することを目的としている。
提案手法は,複数のベースラインより優れるだけでなく,3つのベンチマークで新たな結果が得られた。
論文 参考訳(メタデータ) (2022-07-19T04:19:29Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Class-incremental Learning with Pre-allocated Fixed Classifiers [20.74548175713497]
クラス増分学習では、学習エージェントは、前のクラスを忘れずに新しいクラスを学ぶことを目標として、データのストリームに直面します。
本稿では,複数の事前配置された出力ノードが学習フェーズの開始時から,その分類損失に正しく対応できる新しい固定分類器を提案する。
論文 参考訳(メタデータ) (2020-10-16T22:40:28Z) - Modeling the Background for Incremental Learning in Semantic
Segmentation [39.025848280224785]
深いアーキテクチャは破滅的な忘れ方に弱い。
本稿では,意味的セグメンテーションの文脈においてこの問題に対処する。
本稿では,このシフトを明示的に考慮した蒸留法に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-03T13:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。