論文の概要: MePo: Meta Post-Refinement for Rehearsal-Free General Continual Learnin
- arxiv url: http://arxiv.org/abs/2602.07940v1
- Date: Sun, 08 Feb 2026 12:15:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.882025
- Title: MePo: Meta Post-Refinement for Rehearsal-Free General Continual Learnin
- Title(参考訳): MePo:リハーサルなし総合学習のためのメタポストリファインメント
- Authors: Guanglong Sun, Hongwei Yan, Liyuan Wang, Zhiqi Kang, Shuang Cui, Hang Su, Jun Zhu, Yi Zhong,
- Abstract要約: PTMs-based General Continual Learning (GCL) のためのMeta Post-Refinement (MePo) という革新的なアプローチを導入する。
MePoは、事前学習データから擬似タスクシーケンスを構築し、事前訓練されたバックボーンを洗練するための双方向メタラーニングパラダイムを開発する。
MePoはプラグイン戦略として機能し、さまざまなGCLベンチマークや事前訓練されたチェックポイントで大幅なパフォーマンス向上を実現している。
- 参考スコア(独自算出の注目度): 47.195830952416294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To cope with uncertain changes of the external world, intelligent systems must continually learn from complex, evolving environments and respond in real time. This ability, collectively known as general continual learning (GCL), encapsulates practical challenges such as online datastreams and blurry task boundaries. Although leveraging pretrained models (PTMs) has greatly advanced conventional continual learning (CL), these methods remain limited in reconciling the diverse and temporally mixed information along a single pass, resulting in sub-optimal GCL performance. Inspired by meta-plasticity and reconstructive memory in neuroscience, we introduce here an innovative approach named Meta Post-Refinement (MePo) for PTMs-based GCL. This approach constructs pseudo task sequences from pretraining data and develops a bi-level meta-learning paradigm to refine the pretrained backbone, which serves as a prolonged pretraining phase but greatly facilitates rapid adaptation of representation learning to downstream GCL tasks. MePo further initializes a meta covariance matrix as the reference geometry of pretrained representation space, enabling GCL to exploit second-order statistics for robust output alignment. MePo serves as a plug-in strategy that achieves significant performance gains across a variety of GCL benchmarks and pretrained checkpoints in a rehearsal-free manner (e.g., 15.10\%, 13.36\%, and 12.56\% on CIFAR-100, ImageNet-R, and CUB-200 under Sup-21/1K). Our source code is available at \href{https://github.com/SunGL001/MePo}{MePo}
- Abstract(参考訳): 外部世界の不確実な変化に対処するためには、インテリジェントシステムは複雑で進化している環境から継続的に学び、リアルタイムで応答する必要がある。
一般連続学習(General Continual Learning, GCL)と呼ばれるこの能力は、オンラインデータストリームや曖昧なタスク境界といった実践的な課題をカプセル化する。
事前学習モデル(PTM)の活用は従来の継続学習(CL)を大幅に進歩させたが、これらの手法は単一のパスに沿って多様かつ時間的に混在する情報の調整に限られており、結果として準最適GCL性能が向上する。
神経科学におけるメタ可塑性と再構成記憶に着想を得て,PTMを用いたGCLのためのMeta Post-Refinement(MePo)という革新的なアプローチを紹介した。
この手法は、事前学習データから擬似タスクシーケンスを構築し、二段階のメタラーニングパラダイムを開発し、訓練済みのバックボーンを洗練させ、長期の事前学習フェーズとして機能するが、下流のGCLタスクへの表現学習の迅速な適応を大幅に促進する。
MePoはさらに、事前訓練された表現空間の参照幾何学としてメタ共分散行列を初期化し、GCLはロバストな出力アライメントのために2階統計を利用することができる。
MePoは様々なGCLベンチマークや事前訓練されたチェックポイント(例えば15.10\%、13.36\%、CIFAR-100、ImageNet-R、CUB-200のSup-21/1Kでの12.56\%)で大幅なパフォーマンス向上を達成するプラグイン戦略として機能する。
我々のソースコードは \href{https://github.com/SunGL001/MePo}{MePo} で入手できる。
関連論文リスト
- Preserving Cross-Modal Consistency for CLIP-based Class-Incremental Learning [77.82901519692378]
クラスインクリメンタルラーニング(CIL)は、モデルが獲得した知識を忘れることなく、シーケンシャルなタスクから新しいカテゴリを継続的に学習することを可能にする。
視覚エンコーダの適応とテキストソフトプロンプトの最適化を分離するCLIPベースのCILのための2段階フレームワークであるDMCを提案する。
CIFAR-100, Imagenet-R, CUB-200, UCF-101 の大規模な実験により, DMC と DMC-OT の両者が最先端の性能を発揮することが示された。
論文 参考訳(メタデータ) (2025-11-14T05:36:36Z) - Unbiased Online Curvature Approximation for Regularized Graph Continual Learning [9.70311578832594]
グラフ連続学習(GCL)は、グラフベースのタスクの連続的なシーケンスから学習することを目的としている。
規則化法はGCLの破滅的な忘れ込みを防ぐのに不可欠である。
本稿では,モデルの現在の学習状況に基づいて,フルフィッシャー情報行列(FIM)の非バイアスオンライン曲率近似を提案する。
論文 参考訳(メタデータ) (2025-09-16T06:35:13Z) - Deepfake Detection that Generalizes Across Benchmarks [48.85953407706351]
ディープフェイク検出器の非表示操作技術への一般化は、実用的展開の課題である。
この研究は、基礎となる事前学習された視覚エンコーダのパラメータ効率適応により、ロバストな一般化が達成可能であることを示す。
提案手法は、平均的クロスデータセットAUROCにおける、より複雑な、最新のアプローチよりも優れた、最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-08-08T12:03:56Z) - Towards Improving Long-Tail Entity Predictions in Temporal Knowledge Graphs through Global Similarity and Weighted Sampling [53.11315884128402]
時間知識グラフ(TKG)補完モデルは、伝統的にトレーニング中にグラフ全体へのアクセスを前提としている。
本稿では,TKGに特化して設計されたインクリメンタルトレーニングフレームワークを提案する。
提案手法は,モデルに依存しない拡張層と加重サンプリング戦略を組み合わせることで,既存のTKG補完手法を拡張および改善することができる。
論文 参考訳(メタデータ) (2025-07-25T06:02:48Z) - MEGA: Second-Order Gradient Alignment for Catastrophic Forgetting Mitigation in GFSCIL [9.557104125817668]
Graph Few-Shot Class-Incremental Learning (GFSCIL)は、大規模なベースデータセットで最初のトレーニングを行った後、新しいタスクの限られたサンプルからモデルを継続的に学習することを可能にする。
既存のGFSCILアプローチは通常、計量に基づくクラス表現にPN(Prototypeal Networks)を使用し、漸進的な学習段階においてモデルを微調整する。
本稿では,GFSCILの破滅的忘れを効果的に軽減することを目的とした,モデル非依存型メタグラフ連続学習(MEGA)を紹介する。
論文 参考訳(メタデータ) (2025-04-18T13:48:15Z) - Advancing Prompt-Based Methods for Replay-Independent General Continual Learning [44.94466949172424]
一般連続学習(GCL)は、現実世界の連続学習(CL)問題を記述するための幅広い概念である。
このような要求は、初期性能の低下、限定的な一般化可能性、深刻な破滅的な忘れ込みをもたらす。
本稿では,MISA (Mask and Initial Session Adaption) という新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-02T00:58:18Z) - Learning towards Synchronous Network Memorizability and Generalizability
for Continual Segmentation across Multiple Sites [52.84959869494459]
臨床実践では、複数のサイトから連続的なデータストリームを継続的に学習するために、セグメンテーションネットワークが必要であることが多い。
既存の方法は、通常、以前のサイトのネットワーク記憶可能性や、目に見えないサイトの一般化可能性に制限される。
本稿では,SMG学習フレームワークの提案により,同期記憶可能性と一般化可能性の問題に取り組むことを目的とする。
論文 参考訳(メタデータ) (2022-06-14T13:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。