論文の概要: Regularizing Generative Adversarial Networks under Limited Data
- arxiv url: http://arxiv.org/abs/2104.03310v1
- Date: Wed, 7 Apr 2021 17:59:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 13:00:28.734010
- Title: Regularizing Generative Adversarial Networks under Limited Data
- Title(参考訳): 限定データに基づく生成逆数ネットワークの正規化
- Authors: Hung-Yu Tseng, Lu Jiang, Ce Liu, Ming-Hsuan Yang, Weilong Yang
- Abstract要約: 本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
- 参考スコア(独自算出の注目度): 88.57330330305535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed the rapid progress of generative adversarial
networks (GANs). However, the success of the GAN models hinges on a large
amount of training data. This work proposes a regularization approach for
training robust GAN models on limited data. We theoretically show a connection
between the regularized loss and an f-divergence called LeCam-divergence, which
we find is more robust under limited training data. Extensive experiments on
several benchmark datasets demonstrate that the proposed regularization scheme
1) improves the generalization performance and stabilizes the learning dynamics
of GAN models under limited training data, and 2) complements the recent data
augmentation methods. These properties facilitate training GAN models to
achieve state-of-the-art performance when only limited training data of the
ImageNet benchmark is available.
- Abstract(参考訳): 近年,gans(generative adversarial networks)が急速に進展している。
しかし、GANモデルの成功は、大量のトレーニングデータに基づいている。
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
理論的には、正規化損失と LeCam-divergence と呼ばれる f-分枝の関係を示すが、これは限られた訓練データの下ではより堅牢である。
いくつかのベンチマークデータセットにおける広範囲な実験により、1)一般化性能の向上、および限定されたトレーニングデータ下でのganモデルの学習ダイナミクスの安定化、2)最近のデータ拡張法を補完することを示す。
これらの特性は、imagenetベンチマークの限られたトレーニングデータしか利用できない場合、ganモデルのトレーニングを容易にする。
関連論文リスト
- Rejection Sampling IMLE: Designing Priors for Better Few-Shot Image
Synthesis [7.234618871984921]
新たな研究分野は、限られたトレーニングデータで深層生成モデルを学ぶことを目的としている。
トレーニングに使用する事前分布を変更する新しいアプローチであるRS-IMLEを提案する。
これにより、既存のGANやIMLEベースの手法に比べて画質が大幅に向上する。
論文 参考訳(メタデータ) (2024-09-26T00:19:42Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Robust Fine-Tuning of Vision-Language Models for Domain Generalization [6.7181844004432385]
ファンデーションモデルは、分散シフトの下で、印象的なゼロショット推論能力とロバスト性を持っている。
一般的な視覚言語基盤モデルCLIPの微調整のための新しいレシピを提案する。
私たちの実験では、ゼロショットCLIPは、より複雑なベンチマークでトレーニング済みのビジョンモデルのパフォーマンスと一致しないが、少数ショットCLIPの微調整は、ビジョンのみのパフォーマンスよりも優れていることを示した。
論文 参考訳(メタデータ) (2023-11-03T20:50:40Z) - Phased Data Augmentation for Training a Likelihood-Based Generative Model with Limited Data [0.0]
生成モデルは現実的なイメージの作成に優れていますが、トレーニングのための広範なデータセットに依存しているため、大きな課題があります。
現在のデータ効率の手法はGANアーキテクチャに重点を置いており、他の生成モデルの訓練にギャップを残している。
位相データ拡張(phased data augmentation)は、このギャップに対処する新しい手法であり、データ分散に固有の変更を加えることなく、限られたデータシナリオでのトレーニングを最適化する。
論文 参考訳(メタデータ) (2023-05-22T03:38:59Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Data-Free Adversarial Knowledge Distillation for Graph Neural Networks [62.71646916191515]
グラフ構造化データ(DFAD-GNN)を用いたデータフリー逆知識蒸留のための第1のエンドツーエンドフレームワークを提案する。
具体的には、DFAD-GNNは、教師モデルと学生モデルとを2つの識別器とみなし、教師モデルから学生モデルに知識を抽出するために学習グラフを導出するジェネレータという、主に3つの成分からなる生成的対向ネットワークを採用している。
我々のDFAD-GNNは、グラフ分類タスクにおける最先端のデータフリーベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2022-05-08T08:19:40Z) - Class Balancing GAN with a Classifier in the Loop [58.29090045399214]
本稿では,GANを学習するための理論的動機付けクラスバランス正則化器を提案する。
我々の正規化器は、訓練済みの分類器からの知識を利用して、データセット内のすべてのクラスのバランスの取れた学習を確実にします。
複数のデータセットにまたがる既存手法よりも優れた性能を達成し,長期分布の学習表現における正規化器の有用性を実証する。
論文 参考訳(メタデータ) (2021-06-17T11:41:30Z) - Training Generative Adversarial Networks with Limited Data [42.72100066471578]
限られたデータ体制におけるトレーニングを著しく安定化させる適応型識別器拡張機構を提案する。
よい結果が得られるのは、数千のトレーニングイメージだけで、多くの場合、StyleGAN2の結果に、桁違いに少ない画像でマッチする。
論文 参考訳(メタデータ) (2020-06-11T17:06:34Z) - On Leveraging Pretrained GANs for Generation with Limited Data [83.32972353800633]
生成的敵ネットワーク(GAN)は、しばしば(人間によって)実際の画像と区別できない非常に現実的な画像を生成することができる。
このように生成されたほとんどの画像はトレーニングデータセットには含まれておらず、GAN生成データでトレーニングセットを増強する可能性を示唆している。
我々は、大規模なデータセットで事前訓練された既存のGANモデルを活用し、トランスファーラーニングの概念に従って追加の知識を導入する。
限られたデータを用いた生成における提案手法の有効性を示すため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-02-26T21:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。