論文の概要: Few-Shot Continual Learning for Conditional Generative Adversarial
Networks
- arxiv url: http://arxiv.org/abs/2305.11400v2
- Date: Tue, 30 May 2023 02:50:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 00:33:02.490795
- Title: Few-Shot Continual Learning for Conditional Generative Adversarial
Networks
- Title(参考訳): 条件付き生成型adversarial networkのためのマイナショット連続学習
- Authors: Cat P. Le, Juncheng Dong, Ahmed Aloui, Vahid Tarokh
- Abstract要約: 条件付き生成逆ネットワーク(cGAN)のための新しい連続学習手法を提案する。
我々の測度は、完全にcGANの判別器に基づいており、ターゲットと最もよく似た既存のモードを識別することができる。
そこで我々はまず, cGAN のジェネレータを用いてラベル付きデータサンプルを生成し, 生成したデータをメモリで再生しながら, ターゲットモードの cGAN モデルを訓練する。
- 参考スコア(独自算出の注目度): 26.641151407806458
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In few-shot continual learning for generative models, a target mode must be
learned with limited samples without adversely affecting the previously learned
modes. In this paper, we propose a new continual learning approach for
conditional generative adversarial networks (cGAN) based on a new mode-affinity
measure for generative modeling. Our measure is entirely based on the cGAN's
discriminator and can identify the existing modes that are most similar to the
target. Subsequently, we expand the continual learning model by including the
target mode using a weighted label derived from those of the closest modes. To
prevent catastrophic forgetting, we first generate labeled data samples using
the cGAN's generator, and then train the cGAN model for the target mode while
memory replaying with the generated data. Our experimental results demonstrate
the efficacy of our approach in improving the generation performance over the
baselines and the state-of-the-art approaches for various standard datasets
while utilizing fewer training samples.
- Abstract(参考訳): 生成モデルに対する数ショット連続学習では、予め学習したモードに悪影響を及ぼすことなく、限られたサンプルで目標モードを学習しなければならない。
本稿では,生成モデルのための新しいモード親和性尺度に基づく条件付き生成逆ネットワーク(cgan)のための連続学習手法を提案する。
我々の測度は、完全にcGANの判別器に基づいており、ターゲットと最もよく似た既存のモードを識別することができる。
その後、最も近いモードから派生した重み付きラベルを用いて目標モードを含む連続学習モデルを拡張した。
そこで我々はまず, cGAN のジェネレータを用いてラベル付きデータサンプルを生成し, 生成したデータをメモリで再生しながら, ターゲットモードの cGAN モデルを訓練する。
実験結果から,本手法がベースラインを超越した生成性能向上と,各種標準データセットに対する最先端手法の有効性を実証し,トレーニングサンプルの削減を図った。
関連論文リスト
- Continual Offline Reinforcement Learning via Diffusion-based Dual Generative Replay [16.269591842495892]
本研究では, 逐次的オフラインタスクに取り組むために, 前方転送を容易にし, 破滅的な忘れを緩和する実践的パラダイムについて検討する。
本稿では,生成した擬似データの同時再生により,過去の知識を保持できる2つの生成再生フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-16T15:39:11Z) - Heat Death of Generative Models in Closed-Loop Learning [63.83608300361159]
本研究では、独自の学習データセットに加えて、生成したコンテンツをフィードバックする生成モデルの学習ダイナミクスについて検討する。
各イテレーションで十分な量の外部データが導入されない限り、非自明な温度がモデルを退化させることを示す。
論文 参考訳(メタデータ) (2024-04-02T21:51:39Z) - GUIDE: Guidance-based Incremental Learning with Diffusion Models [21.259034167927975]
既存の生成戦略は、生成モデルからランダムにリハーサル例をサンプリングすることで破滅的忘れと戦う。
このギャップを拡散モデルと誘導手法を統合することで橋渡しし、継続的に訓練されたモデルで忘れられた情報を対象としたリハーサル例を作成することを提案する。
実験の結果,GUIDEは破滅的忘れを著しく減らし,従来のランダムサンプリング手法より優れ,生成的再生を伴う継続的な学習における最近の最先端手法を超越した。
論文 参考訳(メタデータ) (2024-03-06T18:47:32Z) - Time-series Generation by Contrastive Imitation [87.51882102248395]
モーメントマッチングの目的によってモチベーションされ、複合的エラーを軽減し、局所的(しかし前方的な)遷移ポリシーを最適化する。
推論において、学習されたポリシーは反復的なサンプリングのジェネレータとして機能し、学習されたエネルギーはサンプルの品質を評価するための軌道レベル尺度として機能する。
論文 参考訳(メタデータ) (2023-11-02T16:45:25Z) - Dual Student Networks for Data-Free Model Stealing [79.67498803845059]
主な課題は、パラメータにアクセスせずにターゲットモデルの勾配を推定し、多様なトレーニングサンプルを生成することである。
そこで本研究では,2人の学生が左右対称に学習し,学生が反対するサンプルを生成するための基準を提案する。
我々の新しい最適化フレームワークは、目標モデルのより正確な勾配推定と、ベンチマーク分類データセットの精度向上を提供する。
論文 参考訳(メタデータ) (2023-09-18T18:11:31Z) - Learning to Jump: Thinning and Thickening Latent Counts for Generative
Modeling [69.60713300418467]
ジャンプの学習は、様々な種類のデータの生成モデリングのための一般的なレシピである。
ジャンプの学習が、デノゼの学習と相容れないパフォーマンスを期待される場合と、より良いパフォーマンスを期待される場合を実証する。
論文 参考訳(メタデータ) (2023-05-28T05:38:28Z) - Making Look-Ahead Active Learning Strategies Feasible with Neural
Tangent Kernels [6.372625755672473]
本稿では,仮説的ラベル付き候補データを用いた再学習に基づく,能動的学習獲得戦略の近似手法を提案する。
通常、これはディープ・ネットワークでは実現できないが、我々はニューラル・タンジェント・カーネルを用いて再トレーニングの結果を近似する。
論文 参考訳(メタデータ) (2022-06-25T06:13:27Z) - Overcoming Mode Collapse with Adaptive Multi Adversarial Training [5.09817514580101]
GAN(Generative Adversarial Networks)は、様々なアプリケーションで使用される生成モデルのクラスである。
GANは、ターゲット分布のいくつかのモードがジェネレータによって無視されるモード崩壊問題に悩まされていることが知られている。
本稿では,従来の世代形態を記憶するために,新たな差別者を適応的に生成する新たな訓練手法を提案する。
論文 参考訳(メタデータ) (2021-12-29T05:57:55Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。