論文の概要: On Leveraging Pretrained GANs for Generation with Limited Data
- arxiv url: http://arxiv.org/abs/2002.11810v3
- Date: Sat, 8 Aug 2020 03:59:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 15:01:25.301282
- Title: On Leveraging Pretrained GANs for Generation with Limited Data
- Title(参考訳): 限定データ生成のための事前学習型GANの活用について
- Authors: Miaoyun Zhao, Yulai Cong, Lawrence Carin
- Abstract要約: 生成的敵ネットワーク(GAN)は、しばしば(人間によって)実際の画像と区別できない非常に現実的な画像を生成することができる。
このように生成されたほとんどの画像はトレーニングデータセットには含まれておらず、GAN生成データでトレーニングセットを増強する可能性を示唆している。
我々は、大規模なデータセットで事前訓練された既存のGANモデルを活用し、トランスファーラーニングの概念に従って追加の知識を導入する。
限られたデータを用いた生成における提案手法の有効性を示すため, 広範囲な実験を行った。
- 参考スコア(独自算出の注目度): 83.32972353800633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has shown generative adversarial networks (GANs) can generate
highly realistic images, that are often indistinguishable (by humans) from real
images. Most images so generated are not contained in the training dataset,
suggesting potential for augmenting training sets with GAN-generated data.
While this scenario is of particular relevance when there are limited data
available, there is still the issue of training the GAN itself based on that
limited data. To facilitate this, we leverage existing GAN models pretrained on
large-scale datasets (like ImageNet) to introduce additional knowledge (which
may not exist within the limited data), following the concept of transfer
learning. Demonstrated by natural-image generation, we reveal that low-level
filters (those close to observations) of both the generator and discriminator
of pretrained GANs can be transferred to facilitate generation in a
perceptually-distinct target domain with limited training data. To further
adapt the transferred filters to the target domain, we propose adaptive filter
modulation (AdaFM). An extensive set of experiments is presented to demonstrate
the effectiveness of the proposed techniques on generation with limited data.
- Abstract(参考訳): 近年、gans(generative adversarial network)は、現実の画像と(人間によって)区別できないような、非常に現実的な画像を生成することができることが示されている。
生成されたほとんどの画像はトレーニングデータセットに含まれておらず、gan生成データでトレーニングセットを増強する可能性を示唆している。
このシナリオは、利用可能なデータに制限がある場合、特に関連性がありますが、その制限されたデータに基づいてgan自体をトレーニングする問題があります。
これを容易にするために,imagenetのような大規模データセットで事前トレーニングされた既存のganモデルを活用して,トランスファーラーニングの概念に従って,追加の知識(限られたデータには存在しないかもしれない)を導入する。
自然画像生成で示されるように、事前訓練されたGANのジェネレータと識別器の両方の低レベルフィルタ(観測に近づいた)は、限られた訓練データを持つ知覚的識別対象領域における生成を容易にするために転送可能である。
転送フィルタを対象領域にさらに適応させるために,適応フィルタ変調(adafm)を提案する。
限られたデータを用いた生成における提案手法の有効性を示すため, 広範囲な実験を行った。
関連論文リスト
- Generative adversarial networks for data-scarce spectral applications [0.0]
合成スペクトルデータ生成分野におけるGANの応用について報告する。
CWGANは,低データ方式の性能向上を図り,サロゲートモデルとして機能することを示す。
論文 参考訳(メタデータ) (2023-07-14T16:27:24Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - MineGAN++: Mining Generative Models for Efficient Knowledge Transfer to
Limited Data Domains [77.46963293257912]
本稿では,特定の対象領域に最も有益である知識をマイニングした生成モデルのための新しい知識伝達手法を提案する。
これは、各事前訓練されたGANの生成分布のどの部分が対象領域に最も近いサンプルを出力しているかを識別するマイカネットワークを用いて行われる。
提案手法はMineGANと呼ばれ,ターゲット画像が少ない領域に効果的に知識を伝達し,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-28T13:10:56Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - Data Instance Prior for Transfer Learning in GANs [25.062518859107946]
限られたデータ領域におけるGANの新たな転送学習手法を提案する。
提案手法は,対象画像の少ない領域に知識を効果的に伝達することを示す。
また,大規模な無条件画像生成と画像編集タスクに先立って,データインスタンスの有用性を示す。
論文 参考訳(メタデータ) (2020-12-08T07:40:30Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。