論文の概要: Premonition: Using Generative Models to Preempt Future Data Changes in
Continual Learning
- arxiv url: http://arxiv.org/abs/2403.07356v1
- Date: Tue, 12 Mar 2024 06:29:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 22:44:20.748794
- Title: Premonition: Using Generative Models to Preempt Future Data Changes in
Continual Learning
- Title(参考訳): 予見:連続学習における生成モデルを用いた将来のデータ変化の回避
- Authors: Mark D. McDonnell, Dong Gong, Ehsan Abbasnejad and Anton van den
Hengel
- Abstract要約: 継続的な学習には、データ分散の継続的な変化に対応するためのモデルが必要である。
本稿では,大規模言語モデルと画像生成モデルの組み合わせが有用であることを示す。
トレーニング済みネットワークのバックボーンは、下流の連続学習問題に有用な表現を学習できることがわかった。
- 参考スコア(独自算出の注目度): 63.850451635362425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning requires a model to adapt to ongoing changes in the data
distribution, and often to the set of tasks to be performed. It is rare,
however, that the data and task changes are completely unpredictable. Given a
description of an overarching goal or data theme, which we call a realm, humans
can often guess what concepts are associated with it. We show here that the
combination of a large language model and an image generation model can
similarly provide useful premonitions as to how a continual learning challenge
might develop over time. We use the large language model to generate text
descriptions of semantically related classes that might potentially appear in
the data stream in future. These descriptions are then rendered using Stable
Diffusion to generate new labelled image samples. The resulting synthetic
dataset is employed for supervised pre-training, but is discarded prior to
commencing continual learning, along with the pre-training classification head.
We find that the backbone of our pre-trained networks can learn representations
useful for the downstream continual learning problem, thus becoming a valuable
input to any existing continual learning method. Although there are
complexities arising from the domain gap between real and synthetic images, we
show that pre-training models in this manner improves multiple Class Incremenal
Learning (CIL) methods on fine-grained image classification benchmarks.
Supporting code can be found at https://github.com/cl-premonition/premonition.
- Abstract(参考訳): 継続的な学習には、データ分散の継続的な変化や、実行すべきタスクセットに適応するモデルが必要である。
しかし、データとタスクの変更が完全に予測不可能であることはまれです。
私たちが「領域」と呼ぶ包括的な目標やデータテーマの説明を考えると、人間はしばしばそれに関連する概念を推測することができる。
ここでは,大規模言語モデルと画像生成モデルの組み合わせが,連続的な学習課題が時間とともにどのように発展していくかに関して,有用であることを示す。
我々は,大規模言語モデルを用いて,将来データストリームに現れる可能性のあるセマンティック関連クラスのテキスト記述を生成する。
これらの記述は、新しいラベル付き画像サンプルを生成するために、安定した拡散を使ってレンダリングされる。
得られた合成データセットは、教師付き事前学習に使用されるが、事前学習分類ヘッドと共に連続学習を開始する前に廃棄される。
事前学習したネットワークのバックボーンは、下流の連続学習問題に有用な表現を学習することができ、既存の連続学習手法に対する貴重な入力となる。
実画像と合成画像の領域間ギャップから生じる複雑度は存在するが,この方法での事前学習モデルは,細粒度画像分類ベンチマークにおいて,複数クラスインクリメンショナル・ラーニング(cil)法を改善していることを示す。
サポートコードはhttps://github.com/cl-premonition/premonitionにある。
関連論文リスト
- Make Prompts Adaptable: Bayesian Modeling for Vision-Language Prompt
Learning with Data-Dependent Prior [14.232144691524528]
最近のVision-Language Pretrainedモデルは、多くの下流タスクのバックボーンとなっている。
MLEトレーニングは、トレーニングデータにおいて、コンテキストベクトルを過度に適合する画像特徴に導くことができる。
本稿では,素早い学習のためのベイズ的枠組みを提案する。
論文 参考訳(メタデータ) (2024-01-09T10:15:59Z) - DreamTeacher: Pretraining Image Backbones with Deep Generative Models [103.62397699392346]
本稿では、下流画像バックボーンの事前学習に生成ネットワークを利用する自己教師付き特徴表現学習フレームワークを提案する。
1)画像Netなどの大規模ラベル付きデータセット上で,これらのバックボーンを事前学習する代替として,学習した生成特徴を対象画像のバックボーンに蒸留する。
私たちのDreamTeacherは、ボード全体で既存の自己指導型表現学習のアプローチを大幅に上回っていることを実証的に見出した。
論文 参考訳(メタデータ) (2023-07-14T17:17:17Z) - Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling [69.60713300418467]
ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
論文 参考訳(メタデータ) (2023-05-28T05:38:28Z) - Generative Negative Text Replay for Continual Vision-Language
Pretraining [95.2784858069843]
視覚言語による事前学習が近年注目を集めている。
大量のデータは、通常ストリーミング形式で収集される。
本稿では,画像とテキスト間のマルチモーダルな知識蒸留手法を提案する。
論文 参考訳(メタデータ) (2022-10-31T13:42:21Z) - DenseCLIP: Language-Guided Dense Prediction with Context-Aware Prompting [91.56988987393483]
本稿では,CLIPから事前学習した知識を暗黙的かつ明示的に活用することで,高密度予測のための新しい枠組みを提案する。
具体的には,CLIPにおける元の画像テキストマッチング問題を画素テキストマッチング問題に変換し,画素テキストスコアマップを用いて高密度予測モデルの学習を指導する。
本手法は,任意の密集予測システムや種々の事前学習された視覚バックボーンに適用可能な,モデルに依存しない手法である。
論文 参考訳(メタデータ) (2021-12-02T18:59:32Z) - Growing Representation Learning [2.7231362265267127]
我々は、ラベルの有無に関わらずデータの解釈可能な表現を学習する、GMATと呼ばれる注意に基づくガウス混合を開発する。
本研究では,ラベルの分布について,ラベルや仮定を使わずに新しいデータ表現を学習できることを示す。
論文 参考訳(メタデータ) (2021-10-17T15:55:13Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - A Survey on Self-supervised Pre-training for Sequential Transfer
Learning in Neural Networks [1.1802674324027231]
移動学習のための自己教師付き事前学習は、ラベルのないデータを用いて最先端の結果を改善する技術として、ますます人気が高まっている。
本稿では,自己指導型学習と伝達学習の分類学の概要を述べるとともに,各領域にまたがる事前学習タスクを設計するためのいくつかの顕著な手法を強調した。
論文 参考訳(メタデータ) (2020-07-01T22:55:48Z) - Conditional Mutual information-based Contrastive Loss for Financial Time
Series Forecasting [12.0855096102517]
金融時系列予測のための表現学習フレームワークを提案する。
本稿では、まず時系列データからコンパクトな表現を学習し、次に学習した表現を用いて、時系列の動きを予測するためのより単純なモデルを訓練する。
論文 参考訳(メタデータ) (2020-02-18T15:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。