論文の概要: Few-Shot Adaptation of Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2010.11943v1
- Date: Thu, 22 Oct 2020 17:59:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 07:08:33.959426
- Title: Few-Shot Adaptation of Generative Adversarial Networks
- Title(参考訳): 生成型adversarial networkのマイナショット適応
- Authors: Esther Robb and Wen-Sheng Chu and Abhishek Kumar and Jia-Bin Huang
- Abstract要約: 本稿では,100枚未満の設定でGANを適応するための簡易かつ効果的なFew-Shot GANを提案する。
FSGANは、対応する特異ベクトルを凍結しながら、事前訓練された重みの特異値に適応することを学ぶ。
提案手法は,既存のGAN適応法と比較して,視覚的品質が著しく向上していることを示す。
- 参考スコア(独自算出の注目度): 54.014885321880755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have shown remarkable performance in
image synthesis tasks, but typically require a large number of training samples
to achieve high-quality synthesis. This paper proposes a simple and effective
method, Few-Shot GAN (FSGAN), for adapting GANs in few-shot settings (less than
100 images). FSGAN repurposes component analysis techniques and learns to adapt
the singular values of the pre-trained weights while freezing the corresponding
singular vectors. This provides a highly expressive parameter space for
adaptation while constraining changes to the pretrained weights. We validate
our method in a challenging few-shot setting of 5-100 images in the target
domain. We show that our method has significant visual quality gains compared
with existing GAN adaptation methods. We report qualitative and quantitative
results showing the effectiveness of our method. We additionally highlight a
problem for few-shot synthesis in the standard quantitative metric used by
data-efficient image synthesis works. Code and additional results are available
at http://e-271.github.io/few-shot-gan.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、画像合成タスクにおいて顕著な性能を示すが、通常、高品質な合成を実現するために多数のトレーニングサンプルを必要とする。
本稿では,短時間設定(100枚未満)でganを適応させるための,単純かつ効果的な手法であるn-shot gan (fsgan)を提案する。
FSGANはコンポーネント分析技術を再利用し、対応する特異ベクトルを凍結しながら、事前訓練された重みの特異値に適応することを学ぶ。
これは、事前訓練された重みの変更を制約しながら、適応のための非常に表現性の高いパラメータ空間を提供する。
対象領域の5-100画像に対して,本手法の有効性を検証した。
提案手法は既存のgan適応法に比べて視覚品質が著しく向上することを示す。
本手法の有効性を示す定性的,定量的な結果を報告する。
また,データ効率のよい画像合成作業で使用される標準的な定量尺度において,少数ショット合成の問題も強調する。
コードと追加結果はhttp://e-271.github.io/few-shot-ganで確認できる。
関連論文リスト
- E$^{2}$GAN: Efficient Training of Efficient GANs for Image-to-Image Translation [69.72194342962615]
拡散モデルからGANを蒸留するプロセスは、より効率的にできるのか?
まず、一般化された特徴を持つベースGANモデルを構築し、微調整により異なる概念に適応し、スクラッチからトレーニングの必要性を排除した。
第2に,ベースモデル全体の微調整を行うのではなく,低ランク適応(LoRA)を簡易かつ効果的なランク探索プロセスで行う。
第3に、微調整に必要な最小限のデータ量を調査し、トレーニング時間を短縮する。
論文 参考訳(メタデータ) (2024-01-11T18:59:14Z) - Diversified in-domain synthesis with efficient fine-tuning for few-shot
classification [64.86872227580866]
画像分類は,クラスごとのラベル付き例の小さなセットのみを用いて,画像分類器の学習を目的としている。
合成データを用いた数ショット学習における一般化問題に対処する新しいアプローチである DisEF を提案する。
提案手法を10種類のベンチマークで検証し,ベースラインを一貫して上回り,数ショット分類のための新しい最先端の手法を確立した。
論文 参考訳(メタデータ) (2023-12-05T17:18:09Z) - Improving Diversity in Zero-Shot GAN Adaptation with Semantic Variations [61.132408427908175]
0ショットのGAN適応は、よく訓練されたジェネレータを再利用して、目に見えないターゲットドメインの画像を合成することを目的としている。
実際の画像の代わりに1つの代表的テキスト機能しか持たないため、合成された画像は徐々に多様性を損なう。
そこで本研究では,CLIP空間における対象テキストの意味的変化を見つけるための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T08:12:28Z) - Improving GAN Training via Feature Space Shrinkage [69.98365478398593]
本稿では,識別器の画像表現空間におけるトレーニングデータの領域を縮小するAdaptiveMixを提案する。
直接有界な特徴空間を考慮し, ハードサンプルを構築し, ハードサンプルと簡単なサンプル間の特徴距離を狭めることを提案する。
評価結果から,我々のAdaptiveMixはGANの訓練を容易にし,生成したサンプルの画像品質を効果的に向上させることができることが示された。
論文 参考訳(メタデータ) (2023-03-02T20:22:24Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - InfoMax-GAN: Improved Adversarial Image Generation via Information
Maximization and Contrastive Learning [39.316605441868944]
GAN(Generative Adversarial Networks)は、多くのジェネレーティブモデリングアプリケーションの基本である。
本稿では,GANにおける2つの基本的な問題を同時に緩和する基本的枠組みを提案する。
提案手法は, 5つのデータセットにわたる画像合成において, GANトレーニングを著しく安定化し, GAN性能を向上させる。
論文 参考訳(メタデータ) (2020-07-09T06:56:11Z) - Training End-to-end Single Image Generators without GANs [27.393821783237186]
AugurOneは、単一画像生成モデルをトレーニングするための新しいアプローチである。
提案手法は,入力画像の非アフィン強化を用いて,アップスケーリングニューラルネットワークを訓練する。
制御画像合成が可能なコンパクト潜在空間を共同で学習する。
論文 参考訳(メタデータ) (2020-04-07T17:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。