論文の概要: Half-Real Half-Fake Distillation for Class-Incremental Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2104.00875v1
- Date: Fri, 2 Apr 2021 03:47:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 13:52:36.744979
- Title: Half-Real Half-Fake Distillation for Class-Incremental Semantic
Segmentation
- Title(参考訳): クラスインクリメンタルセマンティクスセグメンテーションのためのハーフリアルハーフフェイク蒸留
- Authors: Zilong Huang, Wentian Hao, Xinggang Wang, Mingyuan Tao, Jianqiang
Huang, Wenyu Liu, Xian-Sheng Hua
- Abstract要約: 畳み込みニューラルネットワークは漸進的な学習に不適である。
新しいクラスは利用できるが、初期トレーニングデータは保持されない。
訓練されたセグメンテーションネットワークを「反転」して、ランダムノイズから始まる入力画像の合成を試みる。
- 参考スコア(独自算出の注目度): 84.1985497426083
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite their success for semantic segmentation, convolutional neural
networks are ill-equipped for incremental learning, \ie, adapting the original
segmentation model as new classes are available but the initial training data
is not retained. Actually, they are vulnerable to catastrophic forgetting
problem. We try to address this issue by "inverting" the trained segmentation
network to synthesize input images starting from random noise. To avoid setting
detailed pixel-wise segmentation maps as the supervision manually, we propose
the SegInversion to synthesize images using the image-level labels. To increase
the diversity of synthetic images, the Scale-Aware Aggregation module is
integrated into SegInversion for controlling the scale (the number of pixels)
of synthetic objects. Along with real images of new classes, the synthesized
images will be fed into the distillation-based framework to train the new
segmentation model which retains the information about previously learned
classes, whilst updating the current model to learn the new ones. The proposed
method significantly outperforms other incremental learning methods and obtains
state-of-the-art performance on the PASCAL VOC 2012 and ADE20K datasets. The
code and models will be made publicly available.
- Abstract(参考訳): セマンティックセグメンテーションの成功にもかかわらず、畳み込みニューラルネットワークはインクリメンタルラーニングには不適であり、新しいクラスとしてオリジナルのセグメンテーションモデルを適用するが、初期トレーニングデータは保持されない。
実際、彼らは壊滅的な 忘れられる問題に弱いのです
我々は、ランダムノイズから入力画像を合成するために、訓練されたセグメンテーションネットワークを「反転」することでこの問題に対処しようとする。
手動で詳細な画素分割マップの設定を避けるため,画像レベルラベルを用いて画像の合成を行うSegInversionを提案する。
合成画像の多様性を高めるため、SegInversionにはScale-Aware Aggregationモジュールが組み込まれ、合成オブジェクトのスケール(画素数)を制御する。
新しいクラスの実際の画像とともに、合成された画像は蒸留ベースのフレームワークに入力され、新しいセグメンテーションモデルが学習済みのクラスに関する情報を保持しながら、新しいクラスを学ぶために現在のモデルを更新する。
提案手法は他のインクリメンタル学習手法を大幅に上回り,pascal voc 2012 および ade20k データセットで最先端の性能を得る。
コードとモデルは公開される予定だ。
関連論文リスト
- UnSeg: One Universal Unlearnable Example Generator is Enough against All Image Segmentation [64.01742988773745]
未承認のプライベートデータ上での大規模なイメージセグメンテーションモデルのトレーニングに関して、プライバシーに関する懸念が高まっている。
我々は、学習不可能な例の概念を利用して、学習不可能なノイズを原画像に生成し、付加することにより、モデルトレーニングに使用不能な画像を作成する。
6つのメインストリームイメージセグメンテーションタスク、10つの広く使われているデータセット、7つの異なるネットワークアーキテクチャでUnSegの有効性を実証的に検証する。
論文 参考訳(メタデータ) (2024-10-13T16:34:46Z) - RaSP: Relation-aware Semantic Prior for Weakly Supervised Incremental
Segmentation [28.02204928717511]
本稿では,事前学習したクラスから新しいクラスにオブジェクトを移すための弱い教師付きアプローチを提案する。
クラス間の単純なペアインタラクションでさえ、古いクラスと新しいクラスのセグメンテーションマスクの品質を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-31T14:14:21Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - Incremental Learning in Semantic Segmentation from Image Labels [18.404068463921426]
既存のセマンティックセグメンテーションアプローチは印象的な結果を得るが、新しいカテゴリが発見されるにつれてモデルを漸進的に更新することは困難である。
本稿では、安価で広く利用可能な画像レベルのラベルから新しいクラスを分類することを目的とした、Weakly Incremental Learning for Semanticsのための新しいフレームワークを提案する。
擬似ラベルをオフラインで生成する既存のアプローチとは対照的に、画像レベルのラベルで訓練され、セグメンテーションモデルで正規化される補助分類器を使用して、擬似スーパービジョンをオンラインで取得し、モデルを漸進的に更新する。
論文 参考訳(メタデータ) (2021-12-03T12:47:12Z) - Segmenter: Transformer for Semantic Segmentation [79.9887988699159]
セマンティックセグメンテーションのためのトランスフォーマーモデルであるSegmenterを紹介します。
最近のViT(Vision Transformer)上に構築し,セマンティックセグメンテーションに拡張する。
これは、挑戦的なADE20Kデータセット上でのアートの状態を上回り、Pascal ContextとCityscapesでオンパーを実行する。
論文 参考訳(メタデータ) (2021-05-12T13:01:44Z) - A Closer Look at Self-training for Zero-Label Semantic Segmentation [53.4488444382874]
トレーニング中に見られないクラスをセグメント化できることは、ディープラーニングにおいて重要な技術的課題です。
事前のゼロラベルセマンティクスセグメンテーションは、ビジュアル・セマンティクスの埋め込みや生成モデルを学ぶことによってこのタスクにアプローチする。
本研究では,同一画像の異なる増分から生じる擬似ラベルの交点を取り出し,ノイズの多い擬似ラベルをフィルタリングする整合性正規化器を提案する。
論文 参考訳(メタデータ) (2021-04-21T14:34:33Z) - Recursive Training for Zero-Shot Semantic Segmentation [26.89352005206994]
ゼロショット設定のためのセマンティックセグメンテーションモデルの再学習を指導する訓練手法を提案する。
提案モデルがPascal-VOC 2012データセットとPascal-Contextデータセットで最新のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2021-02-26T23:44:16Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。