論文の概要: CLoG: Benchmarking Continual Learning of Image Generation Models
- arxiv url: http://arxiv.org/abs/2406.04584v1
- Date: Fri, 7 Jun 2024 02:12:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 15:48:53.516646
- Title: CLoG: Benchmarking Continual Learning of Image Generation Models
- Title(参考訳): CLoG: 画像生成モデルの継続的な学習のベンチマーク
- Authors: Haotian Zhang, Junting Zhou, Haowei Lin, Hang Ye, Jianhua Zhu, Zihao Wang, Liangcai Gao, Yizhou Wang, Yitao Liang,
- Abstract要約: 本稿では,分類に基づくCLからCLoGへの移行を提唱する。
我々は,既存のCL手法,リプレイベース,正規化ベース,パラメータアイソレーションベースの3種類の手法を生成タスクに適用する。
我々のベンチマークと結果から、将来のCLoG手法の開発に有用な興味深い洞察が得られる。
- 参考スコア(独自算出の注目度): 29.337710309698515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual Learning (CL) poses a significant challenge in Artificial Intelligence, aiming to mirror the human ability to incrementally acquire knowledge and skills. While extensive research has focused on CL within the context of classification tasks, the advent of increasingly powerful generative models necessitates the exploration of Continual Learning of Generative models (CLoG). This paper advocates for shifting the research focus from classification-based CL to CLoG. We systematically identify the unique challenges presented by CLoG compared to traditional classification-based CL. We adapt three types of existing CL methodologies, replay-based, regularization-based, and parameter-isolation-based methods to generative tasks and introduce comprehensive benchmarks for CLoG that feature great diversity and broad task coverage. Our benchmarks and results yield intriguing insights that can be valuable for developing future CLoG methods. Additionally, we will release a codebase designed to facilitate easy benchmarking and experimentation in CLoG publicly at https://github.com/linhaowei1/CLoG. We believe that shifting the research focus to CLoG will benefit the continual learning community and illuminate the path for next-generation AI-generated content (AIGC) in a lifelong learning paradigm.
- Abstract(参考訳): 継続学習(CL)は人工知能において重要な課題であり、知識とスキルを段階的に習得する人間の能力を反映することを目的としている。
分類タスクの文脈においてCLに焦点が当てられているが、ますます強力な生成モデルの出現は、CLoG(Continuous Learning of Generative Model)の探索を必要とする。
本稿では,分類に基づくCLからCLoGへの移行を提唱する。
従来の分類に基づくCLと比較して,CLoGが提示するユニークな課題を体系的に同定する。
我々は,既存のCL手法,リプレイベース,正規化ベース,パラメータアイソレーションベースの3種類の手法を生成タスクに適用し,CLoGの広範な多様性と広範囲なタスクカバレッジを特徴とする総合ベンチマークを導入する。
我々のベンチマークと結果から、将来のCLoG手法の開発に有用な興味深い洞察が得られる。
さらに、私たちはCLoGのベンチマークと実験を容易にするように設計されたコードベースをhttps://github.com/linhaowei1/CLoGで公開します。
我々は、CLoGに研究焦点を移すことが、継続的な学習コミュニティの利益となり、生涯にわたる学習パラダイムにおいて、次世代AI生成コンテンツ(AIGC)の道筋を照らすことができると信じている。
関連論文リスト
- CLEO: Continual Learning of Evolving Ontologies [12.18795037817058]
継続的な学習(CL)は、知的システムに人間の生涯学習を浸透させることを目的としている。
一般的な学習プロセスは、学習情報だけでなく、既存の情報の洗練にも限界がある。
CLEOは、時間とともに現実の変化に適応するインテリジェントなシステムの必要性によって動機付けられている。
論文 参考訳(メタデータ) (2024-07-11T11:32:33Z) - GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - Exploiting CLIP for Zero-shot HOI Detection Requires Knowledge
Distillation at Multiple Levels [52.50670006414656]
大規模事前学習型視覚言語モデルであるCLIPを,多段階の知識蒸留に利用した。
私たちのモデルをトレーニングするために、CLIPを使用して、グローバルイメージとローカルユニオン領域の両方のHOIスコアを生成する。
このモデルは、完全な教師付きおよび弱い教師付き手法に匹敵する強力な性能を達成する。
論文 参考訳(メタデータ) (2023-09-10T16:27:54Z) - From MNIST to ImageNet and Back: Benchmarking Continual Curriculum
Learning [9.104068727716294]
継続学習(CL)は、機械学習研究で最も有望なトレンドの1つである。
6つの画像データセットから複数の異種タスクを含む2つの新しいCLベンチマークを導入する。
さらに、タスクが複雑化と減少の順序で表されるように、ベンチマークを構造化します。
論文 参考訳(メタデータ) (2023-03-16T18:11:19Z) - Global Knowledge Calibration for Fast Open-Vocabulary Segmentation [124.74256749281625]
本稿では,各学習カテゴリの同義語群を生成するテキスト多様化戦略を提案する。
また,CLIPの汎用的な知識を維持するために,テキスト誘導型知識蒸留法を用いている。
提案手法は, 各種データセットに対して頑健な一般化性能を実現する。
論文 参考訳(メタデータ) (2023-03-16T09:51:41Z) - Using Representation Expressiveness and Learnability to Evaluate
Self-Supervised Learning Methods [61.49061000562676]
本稿では,学習可能性を評価するためにCluster Learnability (CL)を導入する。
CLは、K-meansで表現をクラスタリングすることによって得られたラベルを予測するために訓練されたKNNのパフォーマンスで測定される。
CLは、他の競合する評価手法よりも分布内モデルの性能と相関することがわかった。
論文 参考訳(メタデータ) (2022-06-02T19:05:13Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - An Empirical Study of Graph Contrastive Learning [17.246488437677616]
グラフコントラスト学習は、人間のアノテーションなしでグラフ表現を学習するための新しいパラダイムを確立する。
一般的なGCLパラダイムでは,拡張関数,コントラストモード,コントラスト目的,負のマイニング技術など,いくつかの重要な設計上の考慮事項を識別する。
今後の研究の促進とGCLアルゴリズムの実装を容易にするため,モジュール化されたCLコンポーネント,標準化された評価,実験管理を特徴とする,使い易いライブラリPyGCLを開発した。
論文 参考訳(メタデータ) (2021-09-02T17:43:45Z) - A Survey on Curriculum Learning [48.36129047271622]
Curriculum Learning(CL)は、より簡単なデータからより難しいデータまで、マシンラーニングモデルをトレーニングするトレーニング戦略である。
CL戦略は、使い易いプラグインとして、様々なモデルの一般化能力と収束率を改善する能力を示した。
論文 参考訳(メタデータ) (2020-10-25T17:15:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。