論文の概要: Generalizable Two-Branch Framework for Image Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2402.18086v4
- Date: Wed, 13 Mar 2024 11:11:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 10:59:03.897460
- Title: Generalizable Two-Branch Framework for Image Class-Incremental Learning
- Title(参考訳): 画像クラス増分学習のための一般化可能な2分岐フレームワーク
- Authors: Chao Wu, Xiaobin Chang, Ruixuan Wang
- Abstract要約: ディープニューラルネットワークは、新しい知識を学ぶ際に、これまで学んだ知識を忘れることが多い。
本稿では,既存のCL手法をさらに強化するために,新しい2分岐連続学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.173585799587135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks often severely forget previously learned knowledge when
learning new knowledge. Various continual learning (CL) methods have been
proposed to handle such a catastrophic forgetting issue from different
perspectives and achieved substantial improvements. In this paper, a novel
two-branch continual learning framework is proposed to further enhance most
existing CL methods. Specifically, the main branch can be any existing CL model
and the newly introduced side branch is a lightweight convolutional network.
The output of each main branch block is modulated by the output of the
corresponding side branch block. Such a simple two-branch model can then be
easily implemented and learned with the vanilla optimization setting without
whistles and bells. Extensive experiments with various settings on multiple
image datasets show that the proposed framework yields consistent improvements
over state-of-the-art methods.
- Abstract(参考訳): ディープニューラルネットワークはしばしば、新しい知識を学ぶ際に、以前に学んだ知識を忘れてしまう。
種々の連続学習法 (CL) は, 様々な視点から, 破滅的な忘れの問題に対処し, 大幅な改善が達成されている。
本稿では,既存のCL手法をさらに強化するために,新しい2分岐連続学習フレームワークを提案する。
具体的には、メインブランチは既存のCLモデルであり、新しく導入されたサイドブランチは軽量な畳み込みネットワークである。
各主分岐ブロックの出力は、対応する側分岐ブロックの出力によって変調される。
このような単純な2分岐モデルを簡単に実装し、whiやベルを使わずにバニラ最適化設定で学習することができる。
複数の画像データセットの様々な設定による大規模な実験により、提案したフレームワークは最先端の手法よりも一貫した改善をもたらすことが示された。
関連論文リスト
- Learning Prompt with Distribution-Based Feature Replay for Few-Shot
Class-Incremental Learning [58.4078444826737]
分散型特徴再現(LP-DiF)を用いた学習プロンプト(Learning Prompt)という,シンプルで効果的なフレームワークを提案する。
新しいセッションでは,学習可能なプロンプトが古い知識を忘れないようにするため,擬似機能的リプレイ手法を提案する。
新しいセッションに進むと、古いクラスのディストリビューションと現在のセッションのトレーニングイメージを組み合わせて擬似フィーチャーをサンプリングして、プロンプトを最適化する。
論文 参考訳(メタデータ) (2024-01-03T07:59:17Z) - Dynamic Perceiver for Efficient Visual Recognition [87.08210214417309]
特徴抽出手順と早期分類タスクを分離する動的知覚器(Dyn-Perceiver)を提案する。
特徴ブランチは画像の特徴を抽出し、分類ブランチは分類タスクに割り当てられた遅延コードを処理する。
早期出口は分類枝に限られており、低レベルの特徴において線形分離性は不要である。
論文 参考訳(メタデータ) (2023-06-20T03:00:22Z) - Continual Learning for LiDAR Semantic Segmentation: Class-Incremental
and Coarse-to-Fine strategies on Sparse Data [12.749063878119737]
本稿では,ポイントクラウドセマンティックセグメンテーションに適用されたクラスインクリメンタルラーニングの問題を分析する。
さまざまなCL戦略がLiDARポイントクラウドに適応してテストされ、古典的な微調整シナリオとCoarse-to-Fine学習パラダイムの両方に対処した。
論文 参考訳(メタデータ) (2023-04-08T10:28:42Z) - Bi-directional Feature Reconstruction Network for Fine-Grained Few-Shot
Image Classification [61.411869453639845]
クラス間およびクラス内変動を同時に対応できるバイコンストラクション機構を導入する。
この設計は、モデルがより微妙で差別的な特徴を探索するのに役立つ。
広範に使用されている3つのきめ細かな画像分類データセットに対する実験結果は、一貫して大幅に改善されている。
論文 参考訳(メタデータ) (2022-11-30T16:55:14Z) - Learning What Not to Segment: A New Perspective on Few-Shot Segmentation [63.910211095033596]
近年では、FSS ( few-shot segmentation) が広く開発されている。
本稿では,問題を緩和するための新鮮で直接的な知見を提案する。
提案されたアプローチのユニークな性質を踏まえて、より現実的で挑戦的な設定にまで拡張する。
論文 参考訳(メタデータ) (2022-03-15T03:08:27Z) - Weakly Supervised Semantic Segmentation via Alternative Self-Dual
Teaching [82.71578668091914]
本稿では,分類とマスク・リファインメント・コンポーネントを統合された深層モデルに組み込む,コンパクトな学習フレームワークを確立する。
本稿では,高品質な知識相互作用を促進するために,新たな自己双対学習(ASDT)機構を提案する。
論文 参考訳(メタデータ) (2021-12-17T11:56:56Z) - Adaptive Aggregation Networks for Class-Incremental Learning [102.20140790771265]
CIL(Class-Incremental Learning)は,段階別クラス数の増加にともなう分類モデルを学習することを目的としている。
CILの固有の問題は、古いクラスと新しいクラスの学習の間の安定性-塑性ジレンマである。
論文 参考訳(メタデータ) (2020-10-10T18:24:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。