論文の概要: Incremental Few-Shot Semantic Segmentation via Embedding Adaptive-Update
and Hyper-class Representation
- arxiv url: http://arxiv.org/abs/2207.12964v1
- Date: Tue, 26 Jul 2022 15:20:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 13:01:48.039757
- Title: Incremental Few-Shot Semantic Segmentation via Embedding Adaptive-Update
and Hyper-class Representation
- Title(参考訳): Adaptive-Update と Hyper-class Representation を用いたインクリメンタルFew-Shot Semantic Segmentation
- Authors: Guangchen Shi, Yirui Wu, Jun Liu, Shaohua Wan, Wenhai Wang, Tong Lu
- Abstract要約: EHNetは、目覚ましいアドバンテージで、最先端の新たなパフォーマンスを実現している。
PASCAL-5iとCOCOデータセットの実験により、EHNetは、目覚ましいアドバンテージで新しい最先端のパフォーマンスを達成することが示された。
- 参考スコア(独自算出の注目度): 30.558312809285905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Incremental few-shot semantic segmentation (IFSS) targets at incrementally
expanding model's capacity to segment new class of images supervised by only a
few samples. However, features learned on old classes could significantly
drift, causing catastrophic forgetting. Moreover, few samples for pixel-level
segmentation on new classes lead to notorious overfitting issues in each
learning session. In this paper, we explicitly represent class-based knowledge
for semantic segmentation as a category embedding and a hyper-class embedding,
where the former describes exclusive semantical properties, and the latter
expresses hyper-class knowledge as class-shared semantic properties. Aiming to
solve IFSS problems, we present EHNet, i.e., Embedding adaptive-update and
Hyper-class representation Network from two aspects. First, we propose an
embedding adaptive-update strategy to avoid feature drift, which maintains old
knowledge by hyper-class representation, and adaptively update category
embeddings with a class-attention scheme to involve new classes learned in
individual sessions. Second, to resist overfitting issues caused by few
training samples, a hyper-class embedding is learned by clustering all category
embeddings for initialization and aligned with category embedding of the new
class for enhancement, where learned knowledge assists to learn new knowledge,
thus alleviating performance dependence on training data scale. Significantly,
these two designs provide representation capability for classes with sufficient
semantics and limited biases, enabling to perform segmentation tasks requiring
high semantic dependence. Experiments on PASCAL-5i and COCO datasets show that
EHNet achieves new state-of-the-art performance with remarkable advantages.
- Abstract(参考訳): インクリメンタルな数ショットセマンティックセグメンテーション(IFSS)は、モデルを段階的に拡張し、少数のサンプルで管理される新しいクラスのイメージをセグメント化する。
しかし、古いクラスで学んだ特徴は著しく漂流し、破滅的な忘れ物となった。
さらに、新しいクラスでピクセルレベルのセグメンテーションを行うサンプルはほとんどなく、各学習セッションで悪名高いオーバーフィット問題を引き起こす。
本稿では,セマンティクスセグメンテーションのクラスベース知識をカテゴリ埋め込みとハイパークラス埋め込みとして明示的に表現し,前者は排他的セマンティクス特性を記述し,後者はクラス共有セマンティクス特性としてハイパークラス知識を表現する。
IFSS問題の解決を目的としたEHNet,すなわち適応更新ネットワークとハイパークラス表現ネットワークを2つの側面から実装する。
まず,従来の知識をハイパークラス表現で保持する機能ドリフトを回避するための適応型更新戦略を提案し,各セッションで学習した新しいクラスを包含するクラスアテンション方式でカテゴリ埋め込みを適応的に更新する。
第2に,トレーニングサンプル数が少ない場合に生じる問題を過大に当てはめるために,初期化のためのすべてのカテゴリ埋め込みをクラスタリングし,学習知識が新たな知識の学習を支援する新たなクラスのカテゴリ埋め込みと整合することで,データスケールにおけるパフォーマンス依存を軽減することにより,ハイパークラス埋め込みを学習する。
これらの2つの設計は、十分な意味論と限られたバイアスを持つクラスに対して表現能力を提供し、高い意味依存を必要とするセグメンテーションタスクを実行することができる。
PASCAL-5iとCOCOデータセットの実験により、EHNetは、目覚ましいアドバンテージで新しい最先端のパフォーマンスを達成することが示された。
関連論文リスト
- Dual Consolidation for Pre-Trained Model-Based Domain-Incremental Learning [64.1745161657794]
ドメイン・インクリメンタル・ラーニング(ドメイン・インクリメンタル・ラーニング、ドメイン・インクリメンタル・ラーニング、ドメイン・インクリメンタル・ラーニング、ドメイン・インクリメンタル・ラーニング、Domain-Incremental Learning、DIL)は、異なるドメインにまたがる新しい概念へのモデルの漸進的な適応を含む。
プレトレーニングモデルの最近の進歩は、DILの確かな基盤を提供する。
しかし、新しい概念を学ぶことは、しばしば、事前訓練された知識を破滅的に忘れてしまう。
本稿では,歴史的知識の統一と統合を図るために,デュアルコンソリデータティオン(ドゥクト)を提案する。
論文 参考訳(メタデータ) (2024-10-01T17:58:06Z) - Cs2K: Class-specific and Class-shared Knowledge Guidance for Incremental Semantic Segmentation [31.82132159867097]
増分的セグメンテーションは、古いクラスの知識を維持しながら、新しく遭遇したクラスをセグメンテーションする。
逐次的セマンティックセグメンテーションのためのクラス固有およびクラス共有知識(Cs2K)ガイダンスを提案する。
提案するCs2Kはセグメンテーション性能を著しく向上し,プラグアンドプレイである。
論文 参考訳(メタデータ) (2024-07-12T07:15:26Z) - Dynamic Feature Learning and Matching for Class-Incremental Learning [20.432575325147894]
CIL(Class-incremental Learning)は,従来のクラスを破滅的に忘れることなく,新しいクラスを学習する方法として登場した。
本稿では,動的特徴学習とマッチング(DFLM)モデルを提案する。
提案手法は既存手法に比べて大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-05-14T12:17:19Z) - Tendency-driven Mutual Exclusivity for Weakly Supervised Incremental Semantic Segmentation [56.1776710527814]
Weakly Incremental Learning for Semantic (WILSS)は、トレーニング済みのセグメンテーションモデルを利用して、コスト効率と手軽に利用できるイメージレベルのラベルを使用して、新しいクラスをセグメンテーションする。
WILSSを解く最も一般的な方法は、各新しいクラスのシード領域の生成であり、ピクセルレベルの監視の一形態として機能する。
本研究は, 種子領域の挙動を綿密に調整した, 相互排他性に関する革新的, 傾向的関係について提案する。
論文 参考訳(メタデータ) (2024-04-18T08:23:24Z) - Expandable Subspace Ensemble for Pre-Trained Model-Based Class-Incremental Learning [65.57123249246358]
PTMベースのCILのためのExpAndable Subspace Ensemble (EASE)を提案する。
タスク固有のサブスペースを作成することを目的として、新しいタスクごとに異なる軽量アダプタモジュールをトレーニングする。
我々のプロトタイプ補完戦略は、古いクラスのインスタンスを使わずに、古いクラスの新機能を合成します。
論文 参考訳(メタデータ) (2024-03-18T17:58:13Z) - RaSP: Relation-aware Semantic Prior for Weakly Supervised Incremental
Segmentation [28.02204928717511]
本稿では,事前学習したクラスから新しいクラスにオブジェクトを移すための弱い教師付きアプローチを提案する。
クラス間の単純なペアインタラクションでさえ、古いクラスと新しいクラスのセグメンテーションマスクの品質を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-31T14:14:21Z) - Advancing Incremental Few-shot Semantic Segmentation via Semantic-guided
Relation Alignment and Adaptation [98.51938442785179]
増分的な数ショットセマンティックセマンティックセマンティクスは、セマンティクスセマンティクスモデルを新しいクラスに漸進的に拡張することを目的としている。
このタスクは、データ不均衡のため、ベースクラスと新しいクラスの間で深刻な意味認識の問題に直面します。
本稿では,従来の意味情報のガイダンスを完全に考慮した意味誘導型関係調整適応法を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:40:52Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Incremental Few-Shot Learning via Implanting and Compressing [13.122771115838523]
増分的なFew-Shot Learningは、いくつかの例から新しいクラスを継続的に学習するモデルを必要とする。
我々はtextbfImplanting と textbfCompressing と呼ばれる2段階の学習戦略を提案する。
具体的には、textbfImplantingのステップにおいて、新しいクラスのデータ分布をデータ・アサンダント・ベース・セットの助けを借りて模倣することを提案する。
textbfのステップでは、特徴抽出器を各新規クラスを正確に表現し、クラス内コンパクト性を高める。
論文 参考訳(メタデータ) (2022-03-19T11:04:43Z) - Novel Class Discovery in Semantic Segmentation [104.30729847367104]
セマンティックにおける新しいクラス発見(NCDSS)について紹介する。
ラベル付き非結合クラスの集合から事前の知識を与えられた新しいクラスを含むラベル付きイメージのセグメンテーションを目的としている。
NCDSSでは、オブジェクトと背景を区別し、画像内の複数のクラスの存在を処理する必要があります。
本稿では,エントロピーに基づく不確実性モデリングと自己学習(EUMS)フレームワークを提案し,ノイズの多い擬似ラベルを克服する。
論文 参考訳(メタデータ) (2021-12-03T13:31:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。