論文の概要: Class-Incremental Learning for Semantic Segmentation Re-Using Neither
Old Data Nor Old Labels
- arxiv url: http://arxiv.org/abs/2005.06050v1
- Date: Tue, 12 May 2020 21:03:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 19:00:49.252889
- Title: Class-Incremental Learning for Semantic Segmentation Re-Using Neither
Old Data Nor Old Labels
- Title(参考訳): 古いデータも古いラベルも使用しない意味セグメンテーションのためのクラスインクリメンタル学習
- Authors: Marvin Klingner, Andreas B\"ar, Philipp Donn and Tim Fingscheidt
- Abstract要約: 本稿では,モデルが当初トレーニングしたラベル付きデータを用いることなく,セマンティックセグメンテーションのためのクラスインクリメンタル学習を実装する手法を提案する。
本稿では,新しいクラスにのみラベルを必要とする新しいクラス増分学習手法を用いて,これらの問題を克服する方法を示す。
本手法をCityscapesデータセット上で評価し,全ベースラインのmIoU性能を3.5%絶対的に上回る結果を得た。
- 参考スコア(独自算出の注目度): 35.586031601299034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While neural networks trained for semantic segmentation are essential for
perception in autonomous driving, most current algorithms assume a fixed number
of classes, presenting a major limitation when developing new autonomous
driving systems with the need of additional classes. In this paper we present a
technique implementing class-incremental learning for semantic segmentation
without using the labeled data the model was initially trained on. Previous
approaches still either rely on labels for both old and new classes, or fail to
properly distinguish between them. We show how to overcome these problems with
a novel class-incremental learning technique, which nonetheless requires labels
only for the new classes. Specifically, (i) we introduce a new loss function
that neither relies on old data nor on old labels, (ii) we show how new classes
can be integrated in a modular fashion into pretrained semantic segmentation
models, and finally (iii) we re-implement previous approaches in a unified
setting to compare them to ours. We evaluate our method on the Cityscapes
dataset, where we exceed the mIoU performance of all baselines by 3.5% absolute
reaching a result, which is only 2.2% absolute below the upper performance
limit of single-stage training, relying on all data and labels simultaneously.
- Abstract(参考訳): セマンティックセグメンテーションのために訓練されたニューラルネットワークは、自動運転の知覚に必須であるが、現在のアルゴリズムのほとんどは、一定の数のクラスを想定しており、追加のクラスを必要とする新しい自動運転システムを開発する際に大きな制限がある。
本稿では,モデルが当初トレーニングしたラベル付きデータを使わずに,セマンティックセグメンテーションのためのクラスインクリメンタル学習を実装する手法を提案する。
以前のアプローチは、古いクラスと新しいクラスの両方のラベルに依存するか、それらを適切に区別しないかのどちらかである。
本稿では,新しいクラスにのみラベルを必要とする新しいクラス増分学習手法を用いて,これらの問題を克服する方法を示す。
具体的には
(i)古いデータにも古いラベルにも依存しない新しい損失関数を導入する。
(ii) 事前訓練されたセマンティックセグメンテーションモデルに新しいクラスをモジュール形式で組み込む方法を示し、最後に、
(iii)従来のアプローチを再実装し、それらを我々のものと比べる。
cityscapesデータセットでは、すべてのベースラインのmiou性能を3.5%絶対的に上回り、シングルステージトレーニングの最高性能限界を2.2%下回っており、すべてのデータとラベルを同時に頼りにしています。
関連論文リスト
- Tendency-driven Mutual Exclusivity for Weakly Supervised Incremental Semantic Segmentation [56.1776710527814]
Weakly Incremental Learning for Semantic (WILSS)は、トレーニング済みのセグメンテーションモデルを利用して、コスト効率と手軽に利用できるイメージレベルのラベルを使用して、新しいクラスをセグメンテーションする。
WILSSを解く最も一般的な方法は、各新しいクラスのシード領域の生成であり、ピクセルレベルの監視の一形態として機能する。
本研究は, 種子領域の挙動を綿密に調整した, 相互排他性に関する革新的, 傾向的関係について提案する。
論文 参考訳(メタデータ) (2024-04-18T08:23:24Z) - Towards Non-Exemplar Semi-Supervised Class-Incremental Learning [33.560003528712414]
クラス増分学習は、古いクラスの識別性を保ちながら、新しいクラスを徐々に認識することを目的としている。
コントラスト学習と半教師付きインクリメンタルプロトタイプ分類器(Semi-IPC)を用いた非経験的半教師付きCILフレームワークを提案する。
Semi-IPCは教師なしの正規化で各クラスのプロトタイプを学習し、部分的にラベル付けされた新しいデータからモデルを漸進的に学習することを可能にする。
論文 参考訳(メタデータ) (2024-03-27T06:28:19Z) - RaSP: Relation-aware Semantic Prior for Weakly Supervised Incremental
Segmentation [28.02204928717511]
本稿では,事前学習したクラスから新しいクラスにオブジェクトを移すための弱い教師付きアプローチを提案する。
クラス間の単純なペアインタラクションでさえ、古いクラスと新しいクラスのセグメンテーションマスクの品質を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-31T14:14:21Z) - Prototypical quadruplet for few-shot class incremental learning [24.814045065163135]
改良されたコントラスト損失を用いて,より優れた埋め込み空間を同定し,分類ロバスト性を向上させる手法を提案する。
我々のアプローチは、新しいクラスで訓練された場合でも、埋め込み空間で以前獲得した知識を保っている。
提案手法の有効性は,新しいクラスでモデルを訓練した後,組込み空間がそのままであることを示すとともに,各セッションの精度で既存の最先端アルゴリズムより優れていることを示すことで実証する。
論文 参考訳(メタデータ) (2022-11-05T17:19:14Z) - Novel Class Discovery in Semantic Segmentation [104.30729847367104]
セマンティックにおける新しいクラス発見(NCDSS)について紹介する。
ラベル付き非結合クラスの集合から事前の知識を与えられた新しいクラスを含むラベル付きイメージのセグメンテーションを目的としている。
NCDSSでは、オブジェクトと背景を区別し、画像内の複数のクラスの存在を処理する必要があります。
本稿では,エントロピーに基づく不確実性モデリングと自己学習(EUMS)フレームワークを提案し,ノイズの多い擬似ラベルを克服する。
論文 参考訳(メタデータ) (2021-12-03T13:31:59Z) - AutoNovel: Automatically Discovering and Learning Novel Visual
Categories [138.80332861066287]
本稿では,他のクラスをラベル付けしたイメージコレクションにおける新しいクラス発見問題に対処するため,AutoNovelと呼ばれる新しいアプローチを提案する。
我々はAutoNovelを標準分類ベンチマークで評価し、新しいカテゴリー発見の手法をかなり上回っている。
論文 参考訳(メタデータ) (2021-06-29T11:12:16Z) - A Closer Look at Self-training for Zero-Label Semantic Segmentation [53.4488444382874]
トレーニング中に見られないクラスをセグメント化できることは、ディープラーニングにおいて重要な技術的課題です。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
本研究では,同一画像の異なる増分から生じる擬似ラベルの交点を取り出し,ノイズの多い擬似ラベルをフィルタリングする整合性正規化器を提案する。
論文 参考訳(メタデータ) (2021-04-21T14:34:33Z) - Continual Semantic Segmentation via Repulsion-Attraction of Sparse and
Disentangled Latent Representations [18.655840060559168]
本稿では,セマンティックセグメンテーションにおけるクラス連続学習に着目した。
新しいカテゴリは時間とともに利用可能になり、以前のトレーニングデータは保持されない。
提案された連続学習スキームは、潜在空間を形作り、新しいクラスの認識を改善しながら忘れを減らす。
論文 参考訳(メタデータ) (2021-03-10T21:02:05Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z) - Automatically Discovering and Learning New Visual Categories with
Ranking Statistics [145.89790963544314]
我々は,他のクラスをラベル付けした画像コレクションにおいて,新しいクラスを発見する問題に対処する。
汎用クラスタリングモデルを学び、後者を用いて、非競合データ中の新しいクラスを識別する。
我々は,標準分類ベンチマークに対するアプローチと,新しいカテゴリー発見法の性能を,有意なマージンで評価した。
論文 参考訳(メタデータ) (2020-02-13T18:53:32Z) - Modeling the Background for Incremental Learning in Semantic
Segmentation [39.025848280224785]
深いアーキテクチャは破滅的な忘れ方に弱い。
本稿では,意味的セグメンテーションの文脈においてこの問題に対処する。
本稿では,このシフトを明示的に考慮した蒸留法に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-03T13:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。