論文の概要: Continual Learning by Three-Phase Consolidation
- arxiv url: http://arxiv.org/abs/2403.14679v1
- Date: Tue, 12 Mar 2024 15:31:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 03:33:23.296990
- Title: Continual Learning by Three-Phase Consolidation
- Title(参考訳): 3相統合による連続学習
- Authors: Davide Maltoni, Lorenzo Pellegrini,
- Abstract要約: TPC(Three-Phase Consolidation)は、新しいクラス(および/または既知のクラスのインスタンス)を継続的に学習するためのシンプルで効果的なアプローチとして紹介される。
クラスバイアス問題(クラスアンバランシングによる)の除去と、未表現のクラスを忘れないように勾配ベースの修正を制限することを目的としている。
Avalanche Open framework for continual learningの公開により,本論文で提示したアルゴリズムとすべての結果は再現可能である。
- 参考スコア(独自算出の注目度): 4.343760932510039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: TPC (Three-Phase Consolidation) is here introduced as a simple but effective approach to continually learn new classes (and/or instances of known classes) while controlling forgetting of previous knowledge. Each experience (a.k.a. task) is learned in three phases characterized by different rules and learning dynamics, aimed at removing the class-bias problem (due to class unbalancing) and limiting gradient-based corrections to prevent forgetting of underrepresented classes. Several experiments on complex datasets demonstrate its accuracy and efficiency advantages over competitive existing approaches. The algorithm and all the results presented in this paper are fully reproducible thanks to its publication on the Avalanche open framework for continual learning.
- Abstract(参考訳): TPC(Three-Phase Consolidation)は、新しいクラス(および/または既知のクラスのインスタンス)を継続的に学習する上で、従来の知識の忘れを制御しながら、シンプルで効果的なアプローチとして導入されている。
それぞれの経験(つまりタスク)は、異なる規則と学習力学によって特徴づけられる3つのフェーズで学習され、クラスバイアスの問題(クラスアンバランシングによる)を除去し、未表現のクラスを忘れないように勾配に基づく修正を制限することを目的としている。
複雑なデータセットに関するいくつかの実験は、競合する既存のアプローチよりも正確さと効率性が優れていることを示した。
Avalanche Open framework for continual learningの公開により,本論文で提示したアルゴリズムとすべての結果は再現可能である。
関連論文リスト
- RankCLIP: Ranking-Consistent Language-Image Pretraining [7.92247304974314]
RANKCLIPは、CLIPの厳格な1対1マッチングフレームワークを超えて拡張される、新しい事前トレーニング手法である。
従来のペアワイズ損失をリストワイズに拡張することで、RANKCLIPはアライメントプロセスを改善し、各モダリティ内および各モダリティ間のニュアンス付き多対多の関係をキャプチャする。
論文 参考訳(メタデータ) (2024-04-15T00:12:27Z) - Dynamic Sub-graph Distillation for Robust Semi-supervised Continual
Learning [52.046037471678005]
半教師付き連続学習(SSCL)に焦点をあて、そのモデルが未知のカテゴリを持つ部分ラベル付きデータから徐々に学習する。
半教師付き連続学習のための動的サブグラフ蒸留法(DSGD)を提案する。
論文 参考訳(メタデータ) (2023-12-27T04:40:12Z) - Complementary Benefits of Contrastive Learning and Self-Training Under
Distribution Shift [45.92264732270385]
自己学習とコントラスト学習は、ラベルのないデータを組み込むための指導的手法として登場した。
これらの技術の人気と互換性にもかかわらず、それらの組み合わせの有効性は未解明のままである。
論文 参考訳(メタデータ) (2023-12-06T07:02:22Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - Consistency-Based Semi-supervised Evidential Active Learning for
Diagnostic Radiograph Classification [2.3545156585418328]
CSEAL(Consistency-based Semi-supervised Evidential Active Learning)フレームワークについて紹介する。
我々は、証拠理論と主観的論理に基づく予測の不確実性を利用して、エンドツーエンドの統合アプローチを開発する。
本手法は, ラベル付きサンプルを少なくして, より稀な異常の精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-09-05T09:28:31Z) - Hyperspherical Consistency Regularization [45.00073340936437]
我々は,自己教師あり学習と教師あり学習の関係について検討し,自己教師あり学習がデータ効率のよい深層学習にどのように役立つかを検討する。
超球面整合正則化(HCR)を提案し,特徴依存情報を用いた分類器の正規化を行い,ラベルからのバイアスを回避する。
論文 参考訳(メタデータ) (2022-06-02T02:41:13Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - Generalized and Incremental Few-Shot Learning by Explicit Learning and
Calibration without Forgetting [86.56447683502951]
これらの課題を明確かつ効果的に解決できる3段階のフレームワークを提案する。
提案手法を,画像とビデオの断片分類のための4つの挑戦的ベンチマークデータセット上で評価した。
論文 参考訳(メタデータ) (2021-08-18T14:21:43Z) - Flip Learning: Erase to Segment [65.84901344260277]
弱い教師付きセグメンテーション(WSS)は、時間と面倒な手作業のアノテーションを減らすのに役立ちます。
ボックスアノテーションのみを必要とするFlip Learningという,斬新で汎用的なWSSフレームワークを提案する。
提案手法は,完全教師付き学習と弱教師付き学習のギャップを狭める大きな可能性を示す。
論文 参考訳(メタデータ) (2021-08-02T09:56:10Z) - Multiband VAE: Latent Space Partitioning for Knowledge Consolidation in
Continual Learning [14.226973149346883]
従来を忘れずに新しいデータサンプルに関する知識を取得することは、継続的な学習の重要な問題である。
本稿では,変分オートエンコーダの潜伏空間の分割に依存する生成モデルにおける教師なし連続的知識統合手法を提案する。
標準連続学習評価ベンチマークに基づいて,本手法を新たな知識統合シナリオで評価し,提案手法が最先端の2倍に向上することを示す。
論文 参考訳(メタデータ) (2021-06-23T06:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。