論文の概要: Continual Semantic Segmentation via Repulsion-Attraction of Sparse and
Disentangled Latent Representations
- arxiv url: http://arxiv.org/abs/2103.06342v1
- Date: Wed, 10 Mar 2021 21:02:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 15:00:44.865795
- Title: Continual Semantic Segmentation via Repulsion-Attraction of Sparse and
Disentangled Latent Representations
- Title(参考訳): Sparse と Disentangled Latent Representation による連続的セマンティックセマンティックセマンティックセグメンテーション
- Authors: Umberto Michieli and Pietro Zanuttigh
- Abstract要約: 本稿では,セマンティックセグメンテーションにおけるクラス連続学習に着目した。
新しいカテゴリは時間とともに利用可能になり、以前のトレーニングデータは保持されない。
提案された連続学習スキームは、潜在空間を形作り、新しいクラスの認識を改善しながら忘れを減らす。
- 参考スコア(独自算出の注目度): 18.655840060559168
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks suffer from the major limitation of catastrophic
forgetting old tasks when learning new ones. In this paper we focus on class
incremental continual learning in semantic segmentation, where new categories
are made available over time while previous training data is not retained. The
proposed continual learning scheme shapes the latent space to reduce forgetting
whilst improving the recognition of novel classes. Our framework is driven by
three novel components which we also combine on top of existing techniques
effortlessly. First, prototypes matching enforces latent space consistency on
old classes, constraining the encoder to produce similar latent representation
for previously seen classes in the subsequent steps. Second, features
sparsification allows to make room in the latent space to accommodate novel
classes. Finally, contrastive learning is employed to cluster features
according to their semantics while tearing apart those of different classes.
Extensive evaluation on the Pascal VOC2012 and ADE20K datasets demonstrates the
effectiveness of our approach, significantly outperforming state-of-the-art
methods.
- Abstract(参考訳): ディープニューラルネットワークは、新しいタスクを学ぶ際に古いタスクを忘れてしまうという大きな制限に苦しむ。
本稿では,意味セグメンテーションにおけるクラスインクリメンタル連続学習に注目し,新しいカテゴリを時間とともに提供し,事前のトレーニングデータは保持しない。
提案された連続学習スキームは、潜在空間を形作り、新しいクラスの認識を改善しながら忘れを減らす。
私たちのフレームワークは、3つの新しいコンポーネントによって駆動されています。
第一に、プロトタイプマッチングは古いクラスでの潜在空間一貫性を強制し、エンコーダは前述のクラスで同様の潜在表現を次のステップで生成するように制限する。
第二に、スパーシフィケーション機能により、潜在空間に新しいクラスを収容できる空間を作ることができる。
最後に、コントラスト学習は、異なるクラスの機能を分解しながら、セマンティクスに応じて特徴をクラスタリングするために使用される。
Pascal VOC2012とADE20Kデータセットの広範な評価は、私たちのアプローチの有効性を示し、最先端の方法を大幅に上回っています。
関連論文リスト
- DiffusePast: Diffusion-based Generative Replay for Class Incremental
Semantic Segmentation [73.54038780856554]
クラスインクリメンタルセマンティック(CISS)は、新たに追加されたクラスを漸進的に学習することで、従来のセグメンテーションタスクを拡張する。
これは、事前訓練されたGANから生成された古いクラスサンプルを再生するものである。
そこで我々はDiffusePastを提案する。DiffusePastは拡散型生成再生モジュールを特徴とする新しいフレームワークで、異なる命令でより信頼性の高いマスクで意味論的に正確な画像を生成する。
論文 参考訳(メタデータ) (2023-08-02T13:13:18Z) - Harmonizing Base and Novel Classes: A Class-Contrastive Approach for
Generalized Few-Shot Segmentation [78.74340676536441]
本稿では,プロトタイプの更新を規制し,プロトタイプ間の距離を広くするために,クラス間のコントラスト損失とクラス関係損失を提案する。
提案手法は,PASCAL VOC および MS COCO データセット上での一般化された小ショットセグメンテーションタスクに対して,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-24T00:30:25Z) - Activating the Discriminability of Novel Classes for Few-shot
Segmentation [48.542627940781095]
本稿では,特徴符号化段階とセグメンテーションの予測段階の両方において,新規クラスの識別可能性を明示的に活性化することを提案する。
セグメンテーションの予測段階では、クエリ画像の高信頼画素を用いて自分自身を洗練できる自己修正オンラインフォアグラウンド分類器(SROFB)を学習する。
論文 参考訳(メタデータ) (2022-12-02T12:22:36Z) - Prototypical quadruplet for few-shot class incremental learning [24.814045065163135]
改良されたコントラスト損失を用いて,より優れた埋め込み空間を同定し,分類ロバスト性を向上させる手法を提案する。
我々のアプローチは、新しいクラスで訓練された場合でも、埋め込み空間で以前獲得した知識を保っている。
提案手法の有効性は,新しいクラスでモデルを訓練した後,組込み空間がそのままであることを示すとともに,各セッションの精度で既存の最先端アルゴリズムより優れていることを示すことで実証する。
論文 参考訳(メタデータ) (2022-11-05T17:19:14Z) - Continual Attentive Fusion for Incremental Learning in Semantic
Segmentation [43.98082955427662]
勾配に基づくテクニックで訓練された深いアーキテクチャは、破滅的な忘れに苦しむ。
破滅的忘れを緩和するための新しい注意的特徴蒸留手法を導入する。
また, 蒸留損失の背景を考慮に入れた新たな手法を導入し, 偏りの予測を防止した。
論文 参考訳(メタデータ) (2022-02-01T14:38:53Z) - Modeling the Background for Incremental and Weakly-Supervised Semantic
Segmentation [39.025848280224785]
セマンティックセグメンテーションのための新しい漸進的なクラス学習手法を提案する。
各トレーニングステップは、すべての可能なクラスのサブセットにのみアノテーションを提供するので、バックグラウンドクラスのピクセルはセマンティックシフトを示す。
本研究では,Pascal-VOC,ADE20K,Cityscapesのデータセットを広範囲に評価し,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-01-31T16:33:21Z) - Few-Shot Object Detection via Association and DIscrimination [83.8472428718097]
AssociationとDIscriminationによるオブジェクト検出は、新しいクラスごとに2つのステップで識別可能な特徴空間を構築している。
Pascal VOCとMS-COCOデータセットの実験では、FADIは新しいSOTAパフォーマンスを実現し、ショット/スプリットのベースラインを+18.7で大幅に改善した。
論文 参考訳(メタデータ) (2021-11-23T05:04:06Z) - Flip Learning: Erase to Segment [65.84901344260277]
弱い教師付きセグメンテーション(WSS)は、時間と面倒な手作業のアノテーションを減らすのに役立ちます。
ボックスアノテーションのみを必要とするFlip Learningという,斬新で汎用的なWSSフレームワークを提案する。
提案手法は,完全教師付き学習と弱教師付き学習のギャップを狭める大きな可能性を示す。
論文 参考訳(メタデータ) (2021-08-02T09:56:10Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Class-Incremental Learning for Semantic Segmentation Re-Using Neither
Old Data Nor Old Labels [35.586031601299034]
本稿では,モデルが当初トレーニングしたラベル付きデータを用いることなく,セマンティックセグメンテーションのためのクラスインクリメンタル学習を実装する手法を提案する。
本稿では,新しいクラスにのみラベルを必要とする新しいクラス増分学習手法を用いて,これらの問題を克服する方法を示す。
本手法をCityscapesデータセット上で評価し,全ベースラインのmIoU性能を3.5%絶対的に上回る結果を得た。
論文 参考訳(メタデータ) (2020-05-12T21:03:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。