論文の概要: LibContinual: A Comprehensive Library towards Realistic Continual Learning
- arxiv url: http://arxiv.org/abs/2512.22029v1
- Date: Fri, 26 Dec 2025 13:59:13 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:56:05.995244
- Title: LibContinual: A Comprehensive Library towards Realistic Continual Learning
- Title(参考訳): LibContinual: 現実的な継続的学習のための総合的なライブラリ
- Authors: Wenbin Li, Shangge Liu, Borui Kang, Yiyang Chen, KaXuan Lew, Yang Chen, Yinghuan Shi, Lei Wang, Yang Gao, Jiebo Luo,
- Abstract要約: 継続的学習(CL)における根本的な課題は破滅的な忘れ込みであり、新しいタスクに適応することで、以前のタスクのパフォーマンスが低下する。
現実的なCLの基礎となるプラットフォームとして設計された,包括的で再現可能なライブラリであるLibContinualを提案する。
- 参考スコア(独自算出の注目度): 62.34449396069085
- License:
- Abstract: A fundamental challenge in Continual Learning (CL) is catastrophic forgetting, where adapting to new tasks degrades the performance on previous ones. While the field has evolved with diverse methods, this rapid surge in diverse methodologies has culminated in a fragmented research landscape. The lack of a unified framework, including inconsistent implementations, conflicting dependencies, and varying evaluation protocols, makes fair comparison and reproducible research increasingly difficult. To address this challenge, we propose LibContinual, a comprehensive and reproducible library designed to serve as a foundational platform for realistic CL. Built upon a high-cohesion, low-coupling modular architecture, LibContinual integrates 19 representative algorithms across five major methodological categories, providing a standardized execution environment. Meanwhile, leveraging this unified framework, we systematically identify and investigate three implicit assumptions prevalent in mainstream evaluation: (1) offline data accessibility, (2) unregulated memory resources, and (3) intra-task semantic homogeneity. We argue that these assumptions often overestimate the real-world applicability of CL methods. Through our comprehensive analysis using strict online CL settings, a novel unified memory budget protocol, and a proposed category-randomized setting, we reveal significant performance drops in many representative CL methods when subjected to these real-world constraints. Our study underscores the necessity of resource-aware and semantically robust CL strategies, and offers LibContinual as a foundational toolkit for future research in realistic continual learning. The source code is available from \href{https://github.com/RL-VIG/LibContinual}{https://github.com/RL-VIG/LibContinual}.
- Abstract(参考訳): 継続的学習(CL)における根本的な課題は破滅的な忘れ込みであり、新しいタスクへの適応は、以前のタスクのパフォーマンスを劣化させる。
この分野は様々な手法で進化してきたが、様々な方法論の急激な急増は、断片化された研究の風景の中で頂点に達した。
一貫性のない実装、依存関係の矛盾、様々な評価プロトコルを含む統一されたフレームワークの欠如は、公正な比較と再現可能な研究をますます困難にしている。
この課題に対処するために,現実的なCLの基礎となるプラットフォームとして設計された,包括的で再現可能なライブラリであるLibContinualを提案する。
LibContinualは高結合で低結合のモジュールアーキテクチャを基盤として,5つの主要な方法論カテゴリにわたる19の代表的なアルゴリズムを統合し,標準化された実行環境を提供する。
一方,本手法を応用して,(1)オフラインデータアクセシビリティ,(2)非制御メモリリソース,(3)タスク内セマンティック・ホモジニティの3つの暗黙の仮定を体系的に同定し,検討する。
これらの仮定はしばしばCL法の現実的な適用性を過大評価する。
厳密なオンラインCL設定、新しい統一メモリ予算プロトコル、そして提案するカテゴリランダム化設定を用いた包括的な分析を通して、これらの実世界の制約を受けると、多くの代表CLメソッドにおいて顕著な性能低下が明らかになる。
本研究は、資源意識と意味論的に堅牢なCL戦略の必要性を浮き彫りにして、LibContinualを現実的な連続学習における将来の研究のための基礎的ツールキットとして提供する。
ソースコードは \href{https://github.com/RL-VIG/LibContinual}{https://github.com/RL-VIG/LibContinual} から入手できる。
関連論文リスト
- Continual Learning for VLMs: A Survey and Taxonomy Beyond Forgetting [70.83781268763215]
視覚言語モデル(VLM)は、大規模事前学習を活用することで、多様なマルチモーダルタスクにおいて優れたパフォーマンスを実現している。
VLMは、クロスモーダル機能ドリフト、共有アーキテクチャによるパラメータ干渉、ゼロショット機能侵食など、ユニークな課題に直面している。
本調査は、生涯の視覚言語システムを開発する研究者にとって、包括的かつ診断的な基準となることを目的としている。
論文 参考訳(メタデータ) (2025-08-06T09:03:10Z) - A Unified and General Framework for Continual Learning [58.72671755989431]
継続学習(CL)は、以前取得した知識を維持しながら、動的かつ変化するデータ分布から学ぶことに焦点を当てている。
正規化ベース、ベイズベース、メモリ再生ベースなど、破滅的な忘れ込みの課題に対処する様々な手法が開発されている。
本研究の目的は,既存の方法論を包含し,整理する包括的かつ包括的な枠組みを導入することで,このギャップを埋めることである。
論文 参考訳(メタデータ) (2024-03-20T02:21:44Z) - Density Distribution-based Learning Framework for Addressing Online
Continual Learning Challenges [4.715630709185073]
オンライン連続学習のための密度分布に基づく学習フレームワークを提案する。
我々のフレームワークは、より優れた平均精度と時間空間効率を実現する。
提案手法は, CL のアプローチにおいて, 有意な差で優れる。
論文 参考訳(メタデータ) (2023-11-22T09:21:28Z) - From MNIST to ImageNet and Back: Benchmarking Continual Curriculum
Learning [9.104068727716294]
継続学習(CL)は、機械学習研究で最も有望なトレンドの1つである。
6つの画像データセットから複数の異種タスクを含む2つの新しいCLベンチマークを導入する。
さらに、タスクが複雑化と減少の順序で表されるように、ベンチマークを構造化します。
論文 参考訳(メタデータ) (2023-03-16T18:11:19Z) - Real-Time Evaluation in Online Continual Learning: A New Hope [104.53052316526546]
計算コストに関して,現在の継続学習(CL)手法を評価した。
簡単なベースラインは、この評価の下で最先端のCL法より優れている。
これは、既存のCL文献の大部分は、実用的でない特定の種類のストリームに適合していることを驚くほど示唆している。
論文 参考訳(メタデータ) (2023-02-02T12:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。