論文の概要: LFS-GAN: Lifelong Few-Shot Image Generation
- arxiv url: http://arxiv.org/abs/2308.11917v1
- Date: Wed, 23 Aug 2023 05:03:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 15:48:40.853340
- Title: LFS-GAN: Lifelong Few-Shot Image Generation
- Title(参考訳): LFS-GANの長寿命画像生成
- Authors: Juwon Seo, Ji-Su Kang, Gyeong-Moon Park
- Abstract要約: 生成モデル(GAN)は、タスク毎のサンプル数だけを使用してタスクのシーケンスを学習する。
生涯にわたるGANに関する既存の研究では、破滅的な忘れ込みを防ぐための変調に基づく方法が提案されている。
限られたデータから高忠実で多様な画像を生成することができるライフロングFew-Shot GAN(LFS-GAN)を提案する。
- 参考スコア(独自算出の注目度): 5.824064631226058
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We address a challenging lifelong few-shot image generation task for the
first time. In this situation, a generative model learns a sequence of tasks
using only a few samples per task. Consequently, the learned model encounters
both catastrophic forgetting and overfitting problems at a time. Existing
studies on lifelong GANs have proposed modulation-based methods to prevent
catastrophic forgetting. However, they require considerable additional
parameters and cannot generate high-fidelity and diverse images from limited
data. On the other hand, the existing few-shot GANs suffer from severe
catastrophic forgetting when learning multiple tasks. To alleviate these
issues, we propose a framework called Lifelong Few-Shot GAN (LFS-GAN) that can
generate high-quality and diverse images in lifelong few-shot image generation
task. Our proposed framework learns each task using an efficient task-specific
modulator - Learnable Factorized Tensor (LeFT). LeFT is rank-constrained and
has a rich representation ability due to its unique reconstruction technique.
Furthermore, we propose a novel mode seeking loss to improve the diversity of
our model in low-data circumstances. Extensive experiments demonstrate that the
proposed LFS-GAN can generate high-fidelity and diverse images without any
forgetting and mode collapse in various domains, achieving state-of-the-art in
lifelong few-shot image generation task. Surprisingly, we find that our LFS-GAN
even outperforms the existing few-shot GANs in the few-shot image generation
task. The code is available at Github.
- Abstract(参考訳): 我々は、初めて挑戦的な生涯の少数ショット画像生成タスクに対処した。
このような状況下では、生成モデルはタスク毎のサンプル数だけを使用してタスクのシーケンスを学習する。
その結果、学習モデルは破滅的な忘れと過度な問題に一度に遭遇する。
生涯ganに関する既存の研究は、壊滅的な忘れることを防ぐための変調に基づく方法を提案している。
しかし、それらはかなりの追加パラメータを必要とし、限られたデータから高忠実度で多様な画像を生成することができない。
一方、既存の数発のganは、複数のタスクを学習するときに深刻な壊滅的な忘れに苦しむ。
そこで本稿では,この課題を解消するために,lng(lifelong few-shot gan,lfs-gan)というフレームワークを提案する。
提案するフレームワークは,効率的なタスク固有変調器-Learningable Factorized Tensor (LeFT) を用いて各タスクを学習する。
LeFTはランク制約があり、独自の再構築技術により豊かな表現能力を有する。
さらに,低データ環境下でのモデルの多様性向上のために,損失を求める新しいモードを提案する。
広汎な実験により,LFS-GANは,様々な領域で忘れられ,モードが崩れることなく,高忠実で多様な画像を生成できることが実証された。
驚くべきことに、私たちのLFS-GANは、数ショットの画像生成タスクにおいて、既存の数ショットのGANよりも優れています。
コードはgithubで入手できる。
関連論文リスト
- Reward Incremental Learning in Text-to-Image Generation [26.64026346266299]
本稿では,計算オーバーヘッドを最小限に抑える方法であるReward Incremental Distillation(RID)を提案する。
実験結果から,RILシナリオにおける一貫した高次勾配生成の実現におけるRIDの有効性が示された。
論文 参考訳(メタデータ) (2024-11-26T10:54:33Z) - CFTS-GAN: Continual Few-Shot Teacher Student for Generative Adversarial Networks [0.5024983453990064]
GANでは、過度なフィットと破滅的な忘れ込みという、2つのよく知られた課題に直面しています。
本稿では,2つの課題を同時に考えるCFTS-GANのための連続的Few-shot Teacher-Student手法を提案する。
論文 参考訳(メタデータ) (2024-10-17T20:49:08Z) - Comprehensive Generative Replay for Task-Incremental Segmentation with Concurrent Appearance and Semantic Forgetting [49.87694319431288]
一般的なセグメンテーションモデルは、異なる画像ソースからの様々なオブジェクトを含む様々なタスクに対して、ますます好まれている。
画像とマスクのペアを合成することで外観と意味の知識を復元する包括的生成(CGR)フレームワークを提案する。
漸進的タスク(心身、基礎、前立腺のセグメンテーション)の実験は、同時出現と意味的忘れを緩和する上で、明らかな優位性を示している。
論文 参考訳(メタデータ) (2024-06-28T10:05:58Z) - E$^{2}$GAN: Efficient Training of Efficient GANs for Image-to-Image Translation [69.72194342962615]
拡散モデルからGANを蒸留するプロセスは、より効率的にできるのか?
まず、一般化された特徴を持つベースGANモデルを構築し、微調整により異なる概念に適応し、スクラッチからトレーニングの必要性を排除した。
第2に,ベースモデル全体の微調整を行うのではなく,低ランク適応(LoRA)を簡易かつ効果的なランク探索プロセスで行う。
第3に、微調整に必要な最小限のデータ量を調査し、トレーニング時間を短縮する。
論文 参考訳(メタデータ) (2024-01-11T18:59:14Z) - GLEAN: Generative Latent Bank for Image Super-Resolution and Beyond [99.6233044915999]
画像超解像の性能向上のために,StyleGAN や BigGAN などの事前学習型生成支援ネットワーク (GAN) が潜時バンクとして利用できることを示す。
我々の手法であるGenerative LatEnt bANk(GLEAN)は、事前訓練されたGANにカプセル化されているリッチで多様な事前情報を直接活用することで、既存のプラクティスを越えている。
画像のカラー化やブラインド画像の復元など,さまざまなタスクにメソッドを拡張し,提案手法が既存の手法と比較して良好に動作することを示す。
論文 参考訳(メタデータ) (2022-07-29T17:59:01Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Piggyback GAN: Efficient Lifelong Learning for Image Conditioned
Generation [48.31909975623379]
コンボリューションフィルタとデコンボリューションフィルタのセットを構築することで,現在のタスクを学習するパラメータ効率の高いフレームワークであるPiggyback GANを提案する。
現在のタスクでは,本モデルでは,パラメータ数が低いスタンドアロンモデルと同等の高次品質を実現している。
異なるドメインのさまざまな画像コンディショニング生成タスクで Piggyback GAN を検証します。
論文 参考訳(メタデータ) (2021-04-24T12:09:52Z) - Evolving GAN Formulations for Higher Quality Image Synthesis [15.861807854144228]
generative adversarial networks (gans) はディープラーニングを複雑な生成と翻訳タスクに拡張した。
トレーニングプロセスにおけるモード崩壊やその他の不安定性は、生成された結果の品質を劣化させることが多い。
本稿では2つのネットワーク毎にカスタマイズされた損失関数を発見し,GANを改善するためのTaylorGANという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-17T05:11:21Z) - Multiclass non-Adversarial Image Synthesis, with Application to
Classification from Very Small Sample [6.243995448840211]
我々は、新しい非逆生成法 - LA(Clustered Optimization of LAtent space)を提案する。
本手法は,全データレギュレーションにおいて,教師なしの多様なマルチクラス画像を生成することができる。
ラベル付き画像の小さなサンプルのみが、追加のラベル付きデータにアクセスせずにトレーニングできる小データ体制では、同じ量のデータでトレーニングされた最先端のGANモデルを上回る結果が得られる。
論文 参考訳(メタデータ) (2020-11-25T18:47:27Z) - Feature Quantization Improves GAN Training [126.02828112121874]
識別器の特徴量子化(FQ)は、真と偽のデータの両方を共有離散空間に埋め込む。
本手法は,既存のGANモデルに容易に接続でき,訓練における計算オーバーヘッドがほとんどない。
論文 参考訳(メタデータ) (2020-04-05T04:06:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。