論文の概要: Order-Robust Class Incremental Learning: Graph-Driven Dynamic Similarity Grouping
- arxiv url: http://arxiv.org/abs/2502.20032v1
- Date: Thu, 27 Feb 2025 12:16:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-28 15:15:46.922448
- Title: Order-Robust Class Incremental Learning: Graph-Driven Dynamic Similarity Grouping
- Title(参考訳): Order-Robust Class Incremental Learning: Graph-Driven Dynamic Likeity Grouping
- Authors: Guannan Lai, Yujie Li, Xiangkun Wang, Junbo Zhang, Tianrui Li, Xin Yang,
- Abstract要約: クラスインクリメンタルラーニング(CIL)は、学習済みのクラスを忘れずに、新しいクラスを継続的に学習するモデルを必要とする。
クラスベースの類似性グルーピングにグラフカラー化アルゴリズムを利用する textbfGraph-textbfDriven textbfDynamic textbfSimilarity textbfGDSG (textbfGDDSG) 法を提案する。
- 参考スコア(独自算出の注目度): 19.168022702075774
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class Incremental Learning (CIL) requires a model to continuously learn new classes without forgetting previously learned ones. While recent studies have significantly alleviated the problem of catastrophic forgetting (CF), more and more research reveals that the order in which classes appear have significant influences on CIL models. Specifically, prioritizing the learning of classes with lower similarity will enhance the model's generalization performance and its ability to mitigate forgetting. Hence, it is imperative to develop an order-robust class incremental learning model that maintains stable performance even when faced with varying levels of class similarity in different orders. In response, we first provide additional theoretical analysis, which reveals that when the similarity among a group of classes is lower, the model demonstrates increased robustness to the class order. Then, we introduce a novel \textbf{G}raph-\textbf{D}riven \textbf{D}ynamic \textbf{S}imilarity \textbf{G}rouping (\textbf{GDDSG}) method, which leverages a graph coloring algorithm for class-based similarity grouping. The proposed approach trains independent CIL models for each group of classes, ultimately combining these models to facilitate joint prediction. Experimental results demonstrate that our method effectively addresses the issue of class order sensitivity while achieving optimal performance in both model accuracy and anti-forgetting capability. Our code is available at https://github.com/AIGNLAI/GDDSG.
- Abstract(参考訳): クラスインクリメンタルラーニング(CIL)は、学習済みのクラスを忘れずに、新しいクラスを継続的に学習するモデルを必要とする。
近年の研究では破滅的忘れ(CF)の問題が著しく緩和されているが、クラスがCILモデルに重大な影響を及ぼす傾向がますます研究されている。
具体的には、類似度が低いクラスの学習の優先順位付けにより、モデルの一般化性能と、忘れを軽減できる能力が向上する。
したがって、異なる順序でクラス類似性の異なるレベルに直面した場合でも安定した性能を維持することができる、オーダーロバストなクラス漸進学習モデルを開発することが不可欠である。
この結果から,クラス群間の類似性が低い場合には,クラス次数に対するロバスト性の向上が示された。
次に、クラスベースの類似性グループ化のためのグラフ色付けアルゴリズムを利用する、新しい \textbf{G}raph-\textbf{D}riven \textbf{D}ynamic \textbf{S}imilarity \textbf{G}rouping (\textbf{GDDSG}) 法を提案する。
提案手法はクラス毎に独立したCILモデルを訓練し、最終的にこれらのモデルを組み合わせて共同予測を容易にする。
実験結果から,モデル精度とアンチフォッゲッティング能力の両方において最適性能を達成しつつ,クラスオーダー感度の問題に効果的に対処できることが示唆された。
私たちのコードはhttps://github.com/AIGNLAI/GDDSGで利用可能です。
関連論文リスト
- Strategic Base Representation Learning via Feature Augmentations for Few-Shot Class Incremental Learning [1.5269945475810085]
クラスインクリメンタルな学習は、学習済みのクラスの知識を少数のトレーニングインスタンスで保持しながら、新しいクラスを学習するモデルを意味する。
既存のフレームワークは通常、新しいクラスを組み込む際に、以前に学んだクラスのパラメータを凍結する。
本稿では,新しいクラスに対応するために,事前学習したクラスの分離を強化するために,機能拡張駆動型コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-16T08:17:32Z) - Revitalizing Reconstruction Models for Multi-class Anomaly Detection via Class-Aware Contrastive Learning [19.114941437668705]
クラス認識型コントラスト学習(CL)を取り入れたプラグアンドプレイ修正を提案する。
4つのデータセットにまたがる実験により、我々のアプローチの有効性が検証され、高度な手法と比較して大幅に改善され、性能が向上した。
論文 参考訳(メタデータ) (2024-12-06T04:31:09Z) - Mamba-FSCIL: Dynamic Adaptation with Selective State Space Model for Few-Shot Class-Incremental Learning [113.89327264634984]
FSCIL(Few-shot class-incremental Learning)は、最小限のトレーニングサンプルを持つモデルに新しいクラスを統合するという課題に直面している。
従来の手法では、固定パラメータ空間に依存する静的適応を広く採用し、逐次到着するデータから学習する。
本稿では、動的適応のための中間特徴に基づいてプロジェクションパラメータを動的に調整する2つの選択型SSMプロジェクタを提案する。
論文 参考訳(メタデータ) (2024-07-08T17:09:39Z) - Dynamic Feature Learning and Matching for Class-Incremental Learning [20.432575325147894]
CIL(Class-incremental Learning)は,従来のクラスを破滅的に忘れることなく,新しいクラスを学習する方法として登場した。
本稿では,動的特徴学習とマッチング(DFLM)モデルを提案する。
提案手法は既存手法に比べて大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2024-05-14T12:17:19Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Dynamic Conceptional Contrastive Learning for Generalized Category
Discovery [76.82327473338734]
Generalized category discovery (GCD) は、部分的にラベル付けされたデータを自動でクラスタリングすることを目的としている。
ラベル付きデータには、ラベル付きデータの既知のカテゴリだけでなく、新しいカテゴリのインスタンスも含まれている。
GCDの効果的な方法の1つは、ラベルなしデータの識別表現を学習するために自己教師付き学習を適用することである。
本稿では,クラスタリングの精度を効果的に向上する動的概念コントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-30T14:04:39Z) - Learning from Mistakes: Self-Regularizing Hierarchical Representations
in Point Cloud Semantic Segmentation [15.353256018248103]
LiDARセマンティックセマンティックセマンティクスは、きめ細かいシーン理解を実現するために注目を集めている。
本稿では、標準モデルから派生した分類ミスタケス(LEAK)からLEArnを分離する粗大な設定を提案する。
我々のLEAKアプローチは非常に一般的で、どんなセグメンテーションアーキテクチャにもシームレスに適用できます。
論文 参考訳(メタデータ) (2023-01-26T14:52:30Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - Mimicking the Oracle: An Initial Phase Decorrelation Approach for Class Incremental Learning [141.35105358670316]
本研究では,Na"訓練初期相モデルとオラクルモデルとの相違について検討する。
より均一に散らばるように,各クラスの表現を効果的に正規化するクラスワイド・デコレーション(CwD)を提案する。
私たちのCwDは実装が簡単で、既存のメソッドに簡単にプラグインできます。
論文 参考訳(メタデータ) (2021-12-09T07:20:32Z) - APANet: Adaptive Prototypes Alignment Network for Few-Shot Semantic
Segmentation [56.387647750094466]
Few-shotのセマンティックセマンティックセマンティクスは、指定されたクエリイメージに、ラベル付きサポートイメージのみで、新規クラスのオブジェクトをセグメントすることを目的としている。
ほとんどの高度なソリューションは、各クエリ機能を学習したクラス固有のプロトタイプにマッチさせることでセグメンテーションを実行するメトリクス学習フレームワークを利用している。
本稿では,クラス固有およびクラス非依存のプロトタイプを導入することで,適応型プロトタイプ表現を提案する。
論文 参考訳(メタデータ) (2021-11-24T04:38:37Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Model Patching: Closing the Subgroup Performance Gap with Data
Augmentation [50.35010342284508]
機械学習モデルの堅牢性を改善するためのフレームワークであるモデルパッチを導入する。
モデルパッチは、サブグループの違いに対してモデルを不変にすることを奨励し、サブグループによって共有されるクラス情報にフォーカスする。
CAMELは,(1)CycleGANを用いてクラス内およびサブグループ間拡張を学習し,(2)理論上動機付けられた整合性正規化器を用いてサブグループ性能のバランスをとる。
CAMELの有効性を3つのベンチマークデータセットで示し、最高のベースラインに対して、ロバストなエラーを最大33%削減した。
論文 参考訳(メタデータ) (2020-08-15T20:01:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。