論文の概要: Incremental Few-Shot Semantic Segmentation via Embedding Adaptive-Update
and Hyper-class Representation
- arxiv url: http://arxiv.org/abs/2207.12964v1
- Date: Tue, 26 Jul 2022 15:20:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 13:01:48.039757
- Title: Incremental Few-Shot Semantic Segmentation via Embedding Adaptive-Update
and Hyper-class Representation
- Title(参考訳): Adaptive-Update と Hyper-class Representation を用いたインクリメンタルFew-Shot Semantic Segmentation
- Authors: Guangchen Shi, Yirui Wu, Jun Liu, Shaohua Wan, Wenhai Wang, Tong Lu
- Abstract要約: EHNetは、目覚ましいアドバンテージで、最先端の新たなパフォーマンスを実現している。
PASCAL-5iとCOCOデータセットの実験により、EHNetは、目覚ましいアドバンテージで新しい最先端のパフォーマンスを達成することが示された。
- 参考スコア(独自算出の注目度): 30.558312809285905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Incremental few-shot semantic segmentation (IFSS) targets at incrementally
expanding model's capacity to segment new class of images supervised by only a
few samples. However, features learned on old classes could significantly
drift, causing catastrophic forgetting. Moreover, few samples for pixel-level
segmentation on new classes lead to notorious overfitting issues in each
learning session. In this paper, we explicitly represent class-based knowledge
for semantic segmentation as a category embedding and a hyper-class embedding,
where the former describes exclusive semantical properties, and the latter
expresses hyper-class knowledge as class-shared semantic properties. Aiming to
solve IFSS problems, we present EHNet, i.e., Embedding adaptive-update and
Hyper-class representation Network from two aspects. First, we propose an
embedding adaptive-update strategy to avoid feature drift, which maintains old
knowledge by hyper-class representation, and adaptively update category
embeddings with a class-attention scheme to involve new classes learned in
individual sessions. Second, to resist overfitting issues caused by few
training samples, a hyper-class embedding is learned by clustering all category
embeddings for initialization and aligned with category embedding of the new
class for enhancement, where learned knowledge assists to learn new knowledge,
thus alleviating performance dependence on training data scale. Significantly,
these two designs provide representation capability for classes with sufficient
semantics and limited biases, enabling to perform segmentation tasks requiring
high semantic dependence. Experiments on PASCAL-5i and COCO datasets show that
EHNet achieves new state-of-the-art performance with remarkable advantages.
- Abstract(参考訳): インクリメンタルな数ショットセマンティックセグメンテーション(IFSS)は、モデルを段階的に拡張し、少数のサンプルで管理される新しいクラスのイメージをセグメント化する。
しかし、古いクラスで学んだ特徴は著しく漂流し、破滅的な忘れ物となった。
さらに、新しいクラスでピクセルレベルのセグメンテーションを行うサンプルはほとんどなく、各学習セッションで悪名高いオーバーフィット問題を引き起こす。
本稿では,セマンティクスセグメンテーションのクラスベース知識をカテゴリ埋め込みとハイパークラス埋め込みとして明示的に表現し,前者は排他的セマンティクス特性を記述し,後者はクラス共有セマンティクス特性としてハイパークラス知識を表現する。
IFSS問題の解決を目的としたEHNet,すなわち適応更新ネットワークとハイパークラス表現ネットワークを2つの側面から実装する。
まず,従来の知識をハイパークラス表現で保持する機能ドリフトを回避するための適応型更新戦略を提案し,各セッションで学習した新しいクラスを包含するクラスアテンション方式でカテゴリ埋め込みを適応的に更新する。
第2に,トレーニングサンプル数が少ない場合に生じる問題を過大に当てはめるために,初期化のためのすべてのカテゴリ埋め込みをクラスタリングし,学習知識が新たな知識の学習を支援する新たなクラスのカテゴリ埋め込みと整合することで,データスケールにおけるパフォーマンス依存を軽減することにより,ハイパークラス埋め込みを学習する。
これらの2つの設計は、十分な意味論と限られたバイアスを持つクラスに対して表現能力を提供し、高い意味依存を必要とするセグメンテーションタスクを実行することができる。
PASCAL-5iとCOCOデータセットの実験により、EHNetは、目覚ましいアドバンテージで新しい最先端のパフォーマンスを達成することが示された。
関連論文リスト
- SEER-ZSL: Semantic Encoder-Enhanced Representations for Generalized
Zero-Shot Learning [0.7420433640907689]
一般化ゼロショット学習(GZSL)は、見知らぬクラスから知識を伝達することで、目に見えないクラスを認識する。
本稿では,一般化ギャップに対処するための二重戦略を提案する。
論文 参考訳(メタデータ) (2023-12-20T15:18:51Z) - RaSP: Relation-aware Semantic Prior for Weakly Supervised Incremental
Segmentation [28.02204928717511]
本稿では,事前学習したクラスから新しいクラスにオブジェクトを移すための弱い教師付きアプローチを提案する。
クラス間の単純なペアインタラクションでさえ、古いクラスと新しいクラスのセグメンテーションマスクの品質を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-05-31T14:14:21Z) - Advancing Incremental Few-shot Semantic Segmentation via Semantic-guided
Relation Alignment and Adaptation [98.51938442785179]
増分的な数ショットセマンティックセマンティックセマンティクスは、セマンティクスセマンティクスモデルを新しいクラスに漸進的に拡張することを目的としている。
このタスクは、データ不均衡のため、ベースクラスと新しいクラスの間で深刻な意味認識の問題に直面します。
本稿では,従来の意味情報のガイダンスを完全に考慮した意味誘導型関係調整適応法を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:40:52Z) - Harmonizing Base and Novel Classes: A Class-Contrastive Approach for
Generalized Few-Shot Segmentation [78.74340676536441]
本稿では,プロトタイプの更新を規制し,プロトタイプ間の距離を広くするために,クラス間のコントラスト損失とクラス関係損失を提案する。
提案手法は,PASCAL VOC および MS COCO データセット上での一般化された小ショットセグメンテーションタスクに対して,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-24T00:30:25Z) - Few-Shot Class-Incremental Learning by Sampling Multi-Phase Tasks [59.12108527904171]
モデルは新しいクラスを認識し、古いクラスに対する差別性を維持すべきである。
古いクラスを忘れずに新しいクラスを認識するタスクは、FSCIL ( few-shot class-incremental Learning) と呼ばれる。
我々は,LearnIng Multi-phase Incremental Tasks (LIMIT) によるメタラーニングに基づくFSCILの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-03-31T13:46:41Z) - Incremental Few-Shot Learning via Implanting and Compressing [13.122771115838523]
増分的なFew-Shot Learningは、いくつかの例から新しいクラスを継続的に学習するモデルを必要とする。
我々はtextbfImplanting と textbfCompressing と呼ばれる2段階の学習戦略を提案する。
具体的には、textbfImplantingのステップにおいて、新しいクラスのデータ分布をデータ・アサンダント・ベース・セットの助けを借りて模倣することを提案する。
textbfのステップでは、特徴抽出器を各新規クラスを正確に表現し、クラス内コンパクト性を高める。
論文 参考訳(メタデータ) (2022-03-19T11:04:43Z) - Novel Class Discovery in Semantic Segmentation [104.30729847367104]
セマンティックにおける新しいクラス発見(NCDSS)について紹介する。
ラベル付き非結合クラスの集合から事前の知識を与えられた新しいクラスを含むラベル付きイメージのセグメンテーションを目的としている。
NCDSSでは、オブジェクトと背景を区別し、画像内の複数のクラスの存在を処理する必要があります。
本稿では,エントロピーに基づく不確実性モデリングと自己学習(EUMS)フレームワークを提案し,ノイズの多い擬似ラベルを克服する。
論文 参考訳(メタデータ) (2021-12-03T13:31:59Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z) - Class-Incremental Learning for Semantic Segmentation Re-Using Neither
Old Data Nor Old Labels [35.586031601299034]
本稿では,モデルが当初トレーニングしたラベル付きデータを用いることなく,セマンティックセグメンテーションのためのクラスインクリメンタル学習を実装する手法を提案する。
本稿では,新しいクラスにのみラベルを必要とする新しいクラス増分学習手法を用いて,これらの問題を克服する方法を示す。
本手法をCityscapesデータセット上で評価し,全ベースラインのmIoU性能を3.5%絶対的に上回る結果を得た。
論文 参考訳(メタデータ) (2020-05-12T21:03:29Z) - Modeling the Background for Incremental Learning in Semantic
Segmentation [39.025848280224785]
深いアーキテクチャは破滅的な忘れ方に弱い。
本稿では,意味的セグメンテーションの文脈においてこの問題に対処する。
本稿では,このシフトを明示的に考慮した蒸留法に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-03T13:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。