論文の概要: Improving Replay-Based Continual Semantic Segmentation with Smart Data
Selection
- arxiv url: http://arxiv.org/abs/2209.09839v1
- Date: Tue, 20 Sep 2022 16:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 18:45:33.025174
- Title: Improving Replay-Based Continual Semantic Segmentation with Smart Data
Selection
- Title(参考訳): スマートデータ選択によるリプレイベース連続セマンティックセグメンテーションの改善
- Authors: Tobias Kalb, Bj\"orn Mauthe, J\"urgen Beyerer
- Abstract要約: セマンティックセグメンテーションにおける様々なリプレイ戦略の影響について検討し,クラス・インクリメンタル・セッティングとドメイン・インクリメンタル・セッティングで評価する。
本研究は,クラス増分設定において,バッファ内の異なるクラスに対して一様分布を実現することが重要であることを示唆する。
ドメインインクリメンタルな設定では、学習した特徴表現の分布から一様にサンプリングしたり、中央値のエントロピーを持つサンプルを選択することでバッファサンプルを選択することが最も効果的である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning for Semantic Segmentation (CSS) is a rapidly emerging
field, in which the capabilities of the segmentation model are incrementally
improved by learning new classes or new domains. A central challenge in
Continual Learning is overcoming the effects of catastrophic forgetting, which
refers to the sudden drop in accuracy on previously learned tasks after the
model is trained on new classes or domains. In continual classification this
challenge is often overcome by replaying a small selection of samples from
previous tasks, however replay is rarely considered in CSS. Therefore, we
investigate the influences of various replay strategies for semantic
segmentation and evaluate them in class- and domain-incremental settings. Our
findings suggest that in a class-incremental setting, it is critical to achieve
a uniform distribution for the different classes in the buffer to avoid a bias
towards newly learned classes. In the domain-incremental setting, it is most
effective to select buffer samples by uniformly sampling from the distribution
of learned feature representations or by choosing samples with median entropy.
Finally, we observe that the effective sampling methods help to decrease the
representation shift significantly in early layers, which is a major cause of
forgetting in domain-incremental learning.
- Abstract(参考訳): セマンティックセグメンテーション(CSS)の継続的な学習は急速に発展し、セグメンテーションモデルの能力は、新しいクラスや新しいドメインを学ぶことによって徐々に改善される。
連続学習における中心的な課題は破滅的な忘れ込みの影響を克服することであり、これはモデルが新しいクラスやドメインでトレーニングされた後、学習したタスクに対する突然の正確さの低下を指す。
連続的な分類では、この課題は以前のタスクから少数のサンプルをリプレイすることで克服されることが多いが、CSSではリプレイはほとんど考慮されない。
そこで本研究では,セマンティクスセグメンテーションにおける様々なリプレイ戦略の影響を調査し,それらをクラス・インクリメンタル・セグメンテーションで評価する。
本研究は,クラス増分設定において,バッファ内の異なるクラスに対して一様分布を達成し,新たに学習したクラスに対するバイアスを回避することが重要であることを示唆する。
ドメインインクリメンタルな設定では、学習した特徴表現の分布から一様にサンプリングしたり、中央値のエントロピーを持つサンプルを選択することでバッファサンプルを選択することが最も効果的である。
最後に, 実効サンプリング手法は, 初期層における表現シフトを著しく減少させるのに有効であることが観察された。
関連論文リスト
- Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Multivariate Prototype Representation for Domain-Generalized Incremental
Learning [35.83706574551515]
我々は、古いクラスを記憶し、新しいクラスに適応し、見えないドメインから確実にオブジェクトを分類できるDGCILアプローチを設計する。
我々の損失定式化は、分類境界を維持し、各クラスのドメイン固有情報を抑圧する。
論文 参考訳(メタデータ) (2023-09-24T06:42:04Z) - Mitigating Catastrophic Forgetting in Task-Incremental Continual
Learning with Adaptive Classification Criterion [50.03041373044267]
本稿では,継続的学習のための適応型分類基準を用いた教師付きコントラスト学習フレームワークを提案する。
実験により, CFLは最先端の性能を達成し, 分類基準に比べて克服する能力が強いことが示された。
論文 参考訳(メタデータ) (2023-05-20T19:22:40Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Forget Less, Count Better: A Domain-Incremental Self-Distillation
Learning Benchmark for Lifelong Crowd Counting [51.44987756859706]
オフザシェルフ法は複数のドメインを扱うのにいくつかの欠点がある。
生涯クラウドカウンティングは、壊滅的な忘れを緩和し、一般化能力を改善することを目的としている。
論文 参考訳(メタデータ) (2022-05-06T15:37:56Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Reducing Representation Drift in Online Continual Learning [87.71558506591937]
私たちは、エージェントが制限されたメモリと計算で変化する分布から学ぶ必要があるオンライン連続学習パラダイムを研究します。
この作業では、入ってくるデータストリームに未観測のクラスサンプルが導入されることにより、事前に観測されたデータの表現の変化に焦点を合わせます。
論文 参考訳(メタデータ) (2021-04-11T15:19:30Z) - Analyzing Overfitting under Class Imbalance in Neural Networks for Image
Segmentation [19.259574003403998]
画像分割では、ニューラルネットワークは小さな構造物の前景サンプルに過剰に適合する可能性がある。
本研究では,ネットワークの動作を検査することにより,クラス不均衡下でのオーバーフィッティング問題に対する新たな知見を提供する。
論文 参考訳(メタデータ) (2021-02-20T14:57:58Z) - On the Exploration of Incremental Learning for Fine-grained Image
Retrieval [45.48333682748607]
我々は,新たなカテゴリが時間とともに追加される場合に,細粒度画像検索の問題を漸進的に考慮する。
本稿では,検索性能の劣化を抑えるための漸進学習手法を提案する。
提案手法は,新しいクラスにおいて高い性能を保ちながら,元のクラスにおける破滅的な忘れを効果的に軽減する。
論文 参考訳(メタデータ) (2020-10-15T21:07:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。