論文の概要: Uncertainty-aware Contrastive Distillation for Incremental Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2203.14098v1
- Date: Sat, 26 Mar 2022 15:32:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-03 00:41:49.558057
- Title: Uncertainty-aware Contrastive Distillation for Incremental Semantic
Segmentation
- Title(参考訳): インクリメンタルセグメンテーションのための不確かさを意識したコントラスト蒸留
- Authors: Guanglei Yang, Enrico Fini, Dan Xu, Paolo Rota, Mingli Ding, Moin
Nabi, Xavier Alameda-Pineda, Elisa Ricci
- Abstract要約: 破滅的な忘れ物とは、ニューラルネットワークが、新しいタスクを学ぶときに、古いタスクから得た知識を保存できない傾向があることです。
我々は新しい蒸留フレームワークである不確かさを意識したコントラスト蒸留法(メソッド)を提案する。
本研究は, 従来のIL法と相乗効果を持つ蒸留法の利点を実証するものである。
- 参考スコア(独自算出の注目度): 46.14545656625703
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A fundamental and challenging problem in deep learning is catastrophic
forgetting, i.e. the tendency of neural networks to fail to preserve the
knowledge acquired from old tasks when learning new tasks. This problem has
been widely investigated in the research community and several Incremental
Learning (IL) approaches have been proposed in the past years. While earlier
works in computer vision have mostly focused on image classification and object
detection, more recently some IL approaches for semantic segmentation have been
introduced. These previous works showed that, despite its simplicity, knowledge
distillation can be effectively employed to alleviate catastrophic forgetting.
In this paper, we follow this research direction and, inspired by recent
literature on contrastive learning, we propose a novel distillation framework,
Uncertainty-aware Contrastive Distillation (\method). In a nutshell, \method~is
operated by introducing a novel distillation loss that takes into account all
the images in a mini-batch, enforcing similarity between features associated to
all the pixels from the same classes, and pulling apart those corresponding to
pixels from different classes. In order to mitigate catastrophic forgetting, we
contrast features of the new model with features extracted by a frozen model
learned at the previous incremental step. Our experimental results demonstrate
the advantage of the proposed distillation technique, which can be used in
synergy with previous IL approaches, and leads to state-of-art performance on
three commonly adopted benchmarks for incremental semantic segmentation. The
code is available at \url{https://github.com/ygjwd12345/UCD}.
- Abstract(参考訳): 深層学習における根本的な、そして困難な問題は、破滅的な忘れること、すなわち、新しいタスクを学ぶ際に古いタスクから得られた知識を保存するのにニューラルネットワークが失敗する傾向である。
この問題は研究コミュニティで広く研究されており、近年ではいくつかのインクリメンタル学習(il)アプローチが提案されている。
コンピュータビジョンにおける初期の研究は画像分類とオブジェクト検出に重点を置いていたが、最近では意味的セグメンテーションのためのいくつかのILアプローチが導入されている。
これらの以前の研究は、その単純さにもかかわらず、知識蒸留は破滅的な忘れを和らげるために効果的に使用できることを示した。
本稿では,本研究の方向性に従い,近年のコントラスト学習の文献に触発されて,新しい蒸留フレームワークである不確かさを意識したコントラスト蒸留(\method)を提案する。
一言で言えば、 \method~は、ミニバッチ内の全ての画像を考慮した新しい蒸留損失を導入し、同じクラスから全てのピクセルに関連付けられた機能間の類似性を強制し、異なるクラスからピクセルに対応するものを分離することで操作される。
壊滅的な忘れを緩和するために,新しいモデルの特徴と,凍結したモデルによって抽出された特徴との対比を行った。
提案手法は, 従来のIL手法と相乗効果があり, インクリメンタルセマンティックセマンティックセマンティックスセグメンテーションのために広く採用されている3つのベンチマーク上での最先端性能を実現することができる。
コードは \url{https://github.com/ygjwd12345/ucd} で入手できる。
関連論文リスト
- ECLIPSE: Efficient Continual Learning in Panoptic Segmentation with Visual Prompt Tuning [54.68180752416519]
パノプティカルセグメンテーション(英: Panoptic segmentation)は、コンピュータビジョンの最先端タスクである。
ECLIPSE と呼ばれる Visual Prompt Tuning をベースとした,新規で効率的なパノプティカルセグメンテーション手法を提案する。
我々のアプローチは、基本モデルのパラメータを凍結し、小さなプロンプト埋め込みだけを微調整することであり、破滅的な忘れ物と塑性の両方に対処する。
論文 参考訳(メタデータ) (2024-03-29T11:31:12Z) - Fine-Grained Knowledge Selection and Restoration for Non-Exemplar Class
Incremental Learning [64.14254712331116]
非典型的なクラスインクリメンタル学習は、過去のトレーニングデータにアクセスすることなく、新しいタスクと古いタスクの両方を学ぶことを目的としている。
本稿では, きめ細かい知識選択と復元のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-20T02:34:11Z) - Multi-to-Single Knowledge Distillation for Point Cloud Semantic
Segmentation [41.02741249858771]
本稿では,3Dポイントクラウドセマンティックセマンティックセグメンテーションタスクのための多種間知識蒸留フレームワークを提案する。
マルチスキャンのすべてのポイントを直接フューズする代わりに、以前に定義されたハードクラスに属するインスタンスだけが融合する。
論文 参考訳(メタデータ) (2023-04-28T12:17:08Z) - Continual Attentive Fusion for Incremental Learning in Semantic
Segmentation [43.98082955427662]
勾配に基づくテクニックで訓練された深いアーキテクチャは、破滅的な忘れに苦しむ。
破滅的忘れを緩和するための新しい注意的特徴蒸留手法を導入する。
また, 蒸留損失の背景を考慮に入れた新たな手法を導入し, 偏りの予測を防止した。
論文 参考訳(メタデータ) (2022-02-01T14:38:53Z) - A Contrastive Distillation Approach for Incremental Semantic
Segmentation in Aerial Images [15.75291664088815]
現在のディープニューラルアーキテクチャに関する大きな問題は、破滅的な忘れこととして知られている。
我々は、任意の入力を拡張バージョンと比較する、対照的な正則化を提案する。
私たちは、Potsdamデータセットにおけるソリューションの有効性を示し、各テストにおけるインクリメンタルベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-12-07T16:44:45Z) - Continual Semantic Segmentation via Repulsion-Attraction of Sparse and
Disentangled Latent Representations [18.655840060559168]
本稿では,セマンティックセグメンテーションにおけるクラス連続学習に着目した。
新しいカテゴリは時間とともに利用可能になり、以前のトレーニングデータは保持されない。
提案された連続学習スキームは、潜在空間を形作り、新しいクラスの認識を改善しながら忘れを減らす。
論文 参考訳(メタデータ) (2021-03-10T21:02:05Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Contrastive Rendering for Ultrasound Image Segmentation [59.23915581079123]
米国の画像にシャープな境界がないことは、セグメンテーションに固有の課題である。
我々は,US画像における境界推定を改善するための,新しい,効果的なフレームワークを提案する。
提案手法は最先端の手法より優れており,臨床応用の可能性も高い。
論文 参考訳(メタデータ) (2020-10-10T07:14:03Z) - Two-Level Residual Distillation based Triple Network for Incremental
Object Detection [21.725878050355824]
本稿では,より高速なR-CNNに基づく新しいインクリメンタルオブジェクト検出手法を提案する。
従来の学習知識を忘れることなく、新しいクラスでの漸進的なモデル学習を支援するためのアシスタントとして、古いモデルと残留モデルを使用する三重ネットワークである。
論文 参考訳(メタデータ) (2020-07-27T11:04:57Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。