論文の概要: CLoG: Benchmarking Continual Learning of Image Generation Models
- arxiv url: http://arxiv.org/abs/2406.04584v1
- Date: Fri, 7 Jun 2024 02:12:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 15:48:53.516646
- Title: CLoG: Benchmarking Continual Learning of Image Generation Models
- Title(参考訳): CLoG: 画像生成モデルの継続的な学習のベンチマーク
- Authors: Haotian Zhang, Junting Zhou, Haowei Lin, Hang Ye, Jianhua Zhu, Zihao Wang, Liangcai Gao, Yizhou Wang, Yitao Liang,
- Abstract要約: 本稿では,分類に基づくCLからCLoGへの移行を提唱する。
我々は,既存のCL手法,リプレイベース,正規化ベース,パラメータアイソレーションベースの3種類の手法を生成タスクに適用する。
我々のベンチマークと結果から、将来のCLoG手法の開発に有用な興味深い洞察が得られる。
- 参考スコア(独自算出の注目度): 29.337710309698515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual Learning (CL) poses a significant challenge in Artificial Intelligence, aiming to mirror the human ability to incrementally acquire knowledge and skills. While extensive research has focused on CL within the context of classification tasks, the advent of increasingly powerful generative models necessitates the exploration of Continual Learning of Generative models (CLoG). This paper advocates for shifting the research focus from classification-based CL to CLoG. We systematically identify the unique challenges presented by CLoG compared to traditional classification-based CL. We adapt three types of existing CL methodologies, replay-based, regularization-based, and parameter-isolation-based methods to generative tasks and introduce comprehensive benchmarks for CLoG that feature great diversity and broad task coverage. Our benchmarks and results yield intriguing insights that can be valuable for developing future CLoG methods. Additionally, we will release a codebase designed to facilitate easy benchmarking and experimentation in CLoG publicly at https://github.com/linhaowei1/CLoG. We believe that shifting the research focus to CLoG will benefit the continual learning community and illuminate the path for next-generation AI-generated content (AIGC) in a lifelong learning paradigm.
- Abstract(参考訳): 継続学習(CL)は人工知能において重要な課題であり、知識とスキルを段階的に習得する人間の能力を反映することを目的としている。
分類タスクの文脈においてCLに焦点が当てられているが、ますます強力な生成モデルの出現は、CLoG(Continuous Learning of Generative Model)の探索を必要とする。
本稿では,分類に基づくCLからCLoGへの移行を提唱する。
従来の分類に基づくCLと比較して,CLoGが提示するユニークな課題を体系的に同定する。
我々は,既存のCL手法,リプレイベース,正規化ベース,パラメータアイソレーションベースの3種類の手法を生成タスクに適用し,CLoGの広範な多様性と広範囲なタスクカバレッジを特徴とする総合ベンチマークを導入する。
我々のベンチマークと結果から、将来のCLoG手法の開発に有用な興味深い洞察が得られる。
さらに、私たちはCLoGのベンチマークと実験を容易にするように設計されたコードベースをhttps://github.com/linhaowei1/CLoGで公開します。
我々は、CLoGに研究焦点を移すことが、継続的な学習コミュニティの利益となり、生涯にわたる学習パラダイムにおいて、次世代AI生成コンテンツ(AIGC)の道筋を照らすことができると信じている。
関連論文リスト
- Continual Learning Should Move Beyond Incremental Classification [51.23416308775444]
連続学習(Continuous Learning, CL)は、動的環境における知識の蓄積に関わる機械学習のサブフィールドである。
ここでは、このような焦点を維持することは、CL法の理論的発展と実践的適用性の両方を制限すると論じる。
C1) 学習課題における連続性の性質,(C2) 類似性を測定するための適切な空間とメトリクスの選択,(C3) 学習目標が分類を超えた役割である。
論文 参考訳(メタデータ) (2025-02-17T15:40:13Z) - Position: Continual Learning Benefits from An Evolving Population over An Unified Model [4.348086726793516]
本研究では,新しいPCLフレームワークを提案する。
PCLは、ニューラルネットワークアーキテクチャの集団を維持し、進化させることで、継続的学習をアーキテクチャレベルまで拡張する。
PCLは、統一モデルを用いた最先端のリハーサルのないCLメソッドよりも優れている。
論文 参考訳(メタデータ) (2025-02-10T07:21:44Z) - Improving Autoregressive Visual Generation with Cluster-Oriented Token Prediction [52.09472099976885]
IARは改良された自己回帰型ビジュアルジェネレーション手法である。
バランスの取れたk平均クラスタリングアルゴリズムを用いたCodebook Rearrangement戦略を提案する。
また,クラスタ指向のクロスエントロピーロスを提案し,トークンの所在するクラスタを正確に予測する。
論文 参考訳(メタデータ) (2025-01-01T15:58:51Z) - Fusion Self-supervised Learning for Recommendation [16.02820746003461]
本稿では,Fusion Self-supervised Learningフレームワークを提案する。
具体的には、GCNプロセスからの高次情報を用いてコントラストビューを作成します。
各種CL目標からの自己教師付き信号を統合するために,先進CL目標を提案する。
論文 参考訳(メタデータ) (2024-07-29T04:30:38Z) - GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - Exploiting CLIP for Zero-shot HOI Detection Requires Knowledge
Distillation at Multiple Levels [52.50670006414656]
大規模事前学習型視覚言語モデルであるCLIPを,多段階の知識蒸留に利用した。
私たちのモデルをトレーニングするために、CLIPを使用して、グローバルイメージとローカルユニオン領域の両方のHOIスコアを生成する。
このモデルは、完全な教師付きおよび弱い教師付き手法に匹敵する強力な性能を達成する。
論文 参考訳(メタデータ) (2023-09-10T16:27:54Z) - From MNIST to ImageNet and Back: Benchmarking Continual Curriculum
Learning [9.104068727716294]
継続学習(CL)は、機械学習研究で最も有望なトレンドの1つである。
6つの画像データセットから複数の異種タスクを含む2つの新しいCLベンチマークを導入する。
さらに、タスクが複雑化と減少の順序で表されるように、ベンチマークを構造化します。
論文 参考訳(メタデータ) (2023-03-16T18:11:19Z) - Using Representation Expressiveness and Learnability to Evaluate
Self-Supervised Learning Methods [61.49061000562676]
本稿では,学習可能性を評価するためにCluster Learnability (CL)を導入する。
CLは、K-meansで表現をクラスタリングすることによって得られたラベルを予測するために訓練されたKNNのパフォーマンスで測定される。
CLは、他の競合する評価手法よりも分布内モデルの性能と相関することがわかった。
論文 参考訳(メタデータ) (2022-06-02T19:05:13Z) - A Survey on Curriculum Learning [48.36129047271622]
Curriculum Learning(CL)は、より簡単なデータからより難しいデータまで、マシンラーニングモデルをトレーニングするトレーニング戦略である。
CL戦略は、使い易いプラグインとして、様々なモデルの一般化能力と収束率を改善する能力を示した。
論文 参考訳(メタデータ) (2020-10-25T17:15:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。