論文の概要: Efficient Multi-Grained Knowledge Reuse for Class Incremental
Segmentation
- arxiv url: http://arxiv.org/abs/2306.02027v1
- Date: Sat, 3 Jun 2023 07:03:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 20:32:56.575316
- Title: Efficient Multi-Grained Knowledge Reuse for Class Incremental
Segmentation
- Title(参考訳): クラスインクリメンタルセグメンテーションのための高効率多粒度知識再利用
- Authors: Zhihe Lu, Shuicheng Yan, Xinchao Wang
- Abstract要約: 凍結したバックボーンで多層的特徴を融合させることにより,CISSの多層的知識を効率的に再利用することを提案する。
本稿では,高次・低次特徴の融合を促進する新しい高密度相互作用型特徴ピラミッド (DEFY) モジュールを提案する。
提案手法は,現在のSOTAと組み合わせることで,新しい最先端性能が得られる。
- 参考スコア(独自算出の注目度): 129.84862196113116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class Incremental Semantic Segmentation (CISS) has been a trend recently due
to its great significance in real-world applications. Although the existing
CISS methods demonstrate remarkable performance, they either leverage the
high-level knowledge (feature) only while neglecting the rich and diverse
knowledge in the low-level features, leading to poor old knowledge preservation
and weak new knowledge exploration; or use multi-level features for knowledge
distillation by retraining a heavy backbone, which is computationally
intensive. In this paper, we for the first time propose to efficiently reuse
the multi-grained knowledge for CISS by fusing multi-level features with the
frozen backbone and show a simple aggregation of varying-level features, i.e.,
naive feature pyramid, can boost the performance significantly. We further
introduce a novel densely-interactive feature pyramid (DEFY) module that
enhances the fusion of high- and low-level features by enabling their dense
interaction. Specifically, DEFY establishes a per-pixel relationship between
pairs of feature maps, allowing for multi-pair outputs to be aggregated. This
results in improved semantic segmentation by leveraging the complementary
information from multi-level features. We show that DEFY can be effortlessly
integrated into three representative methods for performance enhancement. Our
method yields a new state-of-the-art performance when combined with the current
SOTA by notably averaged mIoU gains on two widely used benchmarks, i.e., 2.5%
on PASCAL VOC 2012 and 2.3% on ADE20K.
- Abstract(参考訳): クラスインクリメンタルセマンティックセマンティックセグメンテーション(CISS)は,近年,実世界のアプリケーションにおいて大きな意味を持つ傾向にある。
既存のCISS法は優れた性能を示すが、それらは低レベルの特徴において豊富な知識と多様な知識を無視しながらのみ高レベルの知識(機能)を活用し、古い知識の保存が貧弱で新しい知識探索が弱いか、あるいは重いバックボーンをトレーニングすることで知識の蒸留に多レベルの特徴を用いるかのどちらかである。
本稿では,凍結したバックボーンで多レベル機能を融合することにより,cissの多粒度知識を効率的に再利用し,様々なレベルの機能,すなわちナイーブな特徴ピラミッドを簡易に集約することで,パフォーマンスを著しく向上させる手法を提案する。
さらに,高次・低次特徴の融合を高密度相互作用により促進する新しい高密度相互作用型特徴ピラミッド (DEFY) モジュールを導入する。
具体的には、DEFYは機能マップのペア間のピクセル単位の関係を確立し、マルチペア出力を集約することができる。
これにより,多段階特徴の相補的情報を活用することでセマンティックセグメンテーションが向上する。
性能向上のための3つの代表的な手法にdefyを無益に統合できることを実証する。
提案手法は, PASCAL VOC 2012で2.5%, ADE20Kで2.3%, 広く使用されている2つのベンチマークにおいて, mIoUゲインの平均化により, 現在のSOTAと組み合わせることで, 新たな最先端性能が得られる。
関連論文リスト
- Multi-Stage Knowledge Integration of Vision-Language Models for Continual Learning [79.46570165281084]
蒸留法における人間の学習過程をエミュレートするマルチステージ知識統合ネットワーク(MulKI)を提案する。
Mulkiは、イデオロギーの排除、新しいイデオロギーの追加、イデオロギーの排除、コネクティクスの作りという4つの段階を通じてこれを達成している。
提案手法は,下流タスク間の連続学習をサポートしながら,ゼロショット能力の維持における大幅な改善を示す。
論文 参考訳(メタデータ) (2024-11-11T07:36:19Z) - Knowledge Adaptation Network for Few-Shot Class-Incremental Learning [23.90555521006653]
クラス増分学習(class-incremental learning)は、いくつかのサンプルを使用して、新しいクラスを段階的に認識することを目的としている。
この問題を解決する効果的な方法の1つは、原型進化分類器を構築することである。
新しいクラスの表現は弱で偏りがあるので、そのような戦略は準最適であると主張する。
論文 参考訳(メタデータ) (2024-09-18T07:51:38Z) - FecTek: Enhancing Term Weight in Lexicon-Based Retrieval with Feature Context and Term-level Knowledge [54.61068946420894]
FEature Context と TErm レベルの知識モジュールを導入して,革新的な手法を提案する。
項重みの特徴コンテキスト表現を効果的に強化するために、FCM(Feature Context Module)が導入された。
また,用語レベルの知識を効果的に活用し,用語重みのモデル化プロセスをインテリジェントに導くための用語レベルの知識誘導モジュール(TKGM)を開発した。
論文 参考訳(メタデータ) (2024-04-18T12:58:36Z) - Learning Prompt with Distribution-Based Feature Replay for Few-Shot Class-Incremental Learning [56.29097276129473]
分散型特徴再現(LP-DiF)を用いた学習プロンプト(Learning Prompt)という,シンプルで効果的なフレームワークを提案する。
新しいセッションでは,学習可能なプロンプトが古い知識を忘れないようにするため,擬似機能的リプレイ手法を提案する。
新しいセッションに進むと、古いクラスのディストリビューションと現在のセッションのトレーニングイメージを組み合わせて擬似フィーチャーをサンプリングして、プロンプトを最適化する。
論文 参考訳(メタデータ) (2024-01-03T07:59:17Z) - MultIOD: Rehearsal-free Multihead Incremental Object Detector [17.236182938227163]
本研究では,CenterNetに基づくクラスインクリメンタルオブジェクト検出器であるMultIODを提案する。
われわれは,まず学習したクラスと漸進的に学習したクラスの間で伝達学習を採用し,破滅的な忘れに対処した。
その結果,本手法は2つのPascal VOCデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2023-09-11T09:32:45Z) - Leveraging Old Knowledge to Continually Learn New Classes in Medical
Images [16.730335437094592]
我々は、破滅的なことを忘れずに新しいクラスを学ぶために、いかに古い知識を活用できるかに焦点を当てる。
我々のソリューションは、最先端のベースラインよりも、クラスの正確さと忘れやすさにおいて優れたパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2023-03-24T02:10:53Z) - SHELS: Exclusive Feature Sets for Novelty Detection and Continual
Learning Without Class Boundaries [22.04165296584446]
Sparse High-Exclusive, Low-level-Shared feature representation (SHELS)を導入する。
SHELSは、ハイレベルな特徴の排他的セットと、必須で共有された低レベルな特徴の学習を促進する。
新規性検出にSHELSを用いることで,最先端のOOD検出法よりも統計的に有意な改善が得られた。
論文 参考訳(メタデータ) (2022-06-28T03:09:55Z) - Energy-based Latent Aligner for Incremental Learning [83.0135278697976]
ディープラーニングモデルは、新しいタスクを漸進的に学習しながら、以前の知識を忘れる傾向があります。
この振る舞いは、新しいタスクに最適化されたパラメータ更新が、古いタスクに適したアップデートとうまく一致しない可能性があるため現れます。
ELI: インクリメンタルラーニングのためのエネルギーベースラテントアリグナーを提案する。
論文 参考訳(メタデータ) (2022-03-28T17:57:25Z) - Preserving Earlier Knowledge in Continual Learning with the Help of All
Previous Feature Extractors [63.21036904487014]
時間とともに新しい知識の継続的な学習は、インテリジェントシステムがより多くのオブジェクトのクラスを認識するのに望ましい能力の1つである。
これまでに学んだすべての特徴抽出器をインテリジェントモデルに組み込むことで、シンプルで効果的な融合メカニズムを提案します。
複数の分類タスクの実験により,提案手法は従来の知識の忘れを効果的に減らし,最先端の継続的学習性能を達成できることが示されている。
論文 参考訳(メタデータ) (2021-04-28T07:49:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。