論文の概要: Data Instance Prior for Transfer Learning in GANs
- arxiv url: http://arxiv.org/abs/2012.04256v1
- Date: Tue, 8 Dec 2020 07:40:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 21:17:41.071365
- Title: Data Instance Prior for Transfer Learning in GANs
- Title(参考訳): GANにおけるトランスファー学習に先立つデータインスタンス
- Authors: Puneet Mangla, Nupur Kumari, Mayank Singh, Vineeth N Balasubramanian,
Balaji Krishnamurthy
- Abstract要約: 限られたデータ領域におけるGANの新たな転送学習手法を提案する。
提案手法は,対象画像の少ない領域に知識を効果的に伝達することを示す。
また,大規模な無条件画像生成と画像編集タスクに先立って,データインスタンスの有用性を示す。
- 参考スコア(独自算出の注目度): 25.062518859107946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in generative adversarial networks (GANs) have shown
remarkable progress in generating high-quality images. However, this gain in
performance depends on the availability of a large amount of training data. In
limited data regimes, training typically diverges, and therefore the generated
samples are of low quality and lack diversity. Previous works have addressed
training in low data setting by leveraging transfer learning and data
augmentation techniques. We propose a novel transfer learning method for GANs
in the limited data domain by leveraging informative data prior derived from
self-supervised/supervised pre-trained networks trained on a diverse source
domain. We perform experiments on several standard vision datasets using
various GAN architectures (BigGAN, SNGAN, StyleGAN2) to demonstrate that the
proposed method effectively transfers knowledge to domains with few target
images, outperforming existing state-of-the-art techniques in terms of image
quality and diversity. We also show the utility of data instance prior in
large-scale unconditional image generation and image editing tasks.
- Abstract(参考訳): 近年のGAN(Generative Adversarial Network)の進歩は,高品質な画像の生成において顕著な進歩を見せている。
しかし、このパフォーマンスの向上は、大量のトレーニングデータの可用性に依存する。
限られたデータ体制では、トレーニングは通常は分岐するため、生成されたサンプルは品質が低く、多様性がない。
これまでの研究は、転送学習とデータ拡張技術を活用して、低データセットでのトレーニングに取り組んできた。
多様なソースドメインで訓練された自己教師/教師付き事前学習ネットワークから導かれる情報的データを活用することにより,データ領域におけるGANの新たな転送学習手法を提案する。
我々は,様々なGANアーキテクチャ(BigGAN,SNGAN,StyleGAN2)を用いて,複数の標準視覚データセットを用いて実験を行い,提案手法がターゲット画像の少ない領域に効果的に知識を伝達することを示した。
また,大規模な無条件画像生成と画像編集タスクに先立って,データインスタンスの有用性を示す。
関連論文リスト
- Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - Training on Thin Air: Improve Image Classification with Generated Data [28.96941414724037]
Diffusion Inversionは、画像分類のための多種多様な高品質なトレーニングデータを生成するための、シンプルで効果的な方法である。
提案手法は,元のデータ分布を捕捉し,画像を安定拡散の潜在空間に反転させることにより,データカバレッジを確保する。
生成した画像が元のデータセットに取って代わることに成功した3つの重要なコンポーネントを特定します。
論文 参考訳(メタデータ) (2023-05-24T16:33:02Z) - Unsupervised Domain Transfer with Conditional Invertible Neural Networks [83.90291882730925]
条件付き可逆ニューラルネットワーク(cINN)に基づくドメイン転送手法を提案する。
提案手法は本質的に,その可逆的アーキテクチャによるサイクル一貫性を保証し,ネットワークトレーニングを最大限効率的に行うことができる。
提案手法は,2つの下流分類タスクにおいて,現実的なスペクトルデータの生成を可能にし,その性能を向上する。
論文 参考訳(メタデータ) (2023-03-17T18:00:27Z) - Effective Data Augmentation With Diffusion Models [65.09758931804478]
我々は、事前訓練されたテキスト・画像拡散モデルによりパラメータ化された画像・画像変換によるデータ拡張の多様性の欠如に対処する。
本手法は,市販の拡散モデルを用いて画像のセマンティクスを編集し,いくつかのラベル付き例から新しい視覚概念に一般化する。
本手法は,実世界の雑草認識タスクと数ショット画像分類タスクにおいて評価し,テスト領域における精度の向上を観察する。
論文 参考訳(メタデータ) (2023-02-07T20:42:28Z) - D3T-GAN: Data-Dependent Domain Transfer GANs for Few-shot Image
Generation [17.20913584422917]
少数のサンプルを与えられたGANモデルをトレーニングすることで、現実的な画像を生成することを目的としている。
数ショット生成の典型的な解決策は、よく訓練されたGANモデルをデータ豊富なソースドメインからデータ不足のターゲットドメインに転送することである。
本稿では,D3T-GANと呼ばれる自己監督型転送方式を提案する。
論文 参考訳(メタデータ) (2022-05-12T11:32:39Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - Multiclass non-Adversarial Image Synthesis, with Application to
Classification from Very Small Sample [6.243995448840211]
我々は、新しい非逆生成法 - LA(Clustered Optimization of LAtent space)を提案する。
本手法は,全データレギュレーションにおいて,教師なしの多様なマルチクラス画像を生成することができる。
ラベル付き画像の小さなサンプルのみが、追加のラベル付きデータにアクセスせずにトレーニングできる小データ体制では、同じ量のデータでトレーニングされた最先端のGANモデルを上回る結果が得られる。
論文 参考訳(メタデータ) (2020-11-25T18:47:27Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - On Leveraging Pretrained GANs for Generation with Limited Data [83.32972353800633]
生成的敵ネットワーク(GAN)は、しばしば(人間によって)実際の画像と区別できない非常に現実的な画像を生成することができる。
このように生成されたほとんどの画像はトレーニングデータセットには含まれておらず、GAN生成データでトレーニングセットを増強する可能性を示唆している。
我々は、大規模なデータセットで事前訓練された既存のGANモデルを活用し、トランスファーラーニングの概念に従って追加の知識を導入する。
限られたデータを用いた生成における提案手法の有効性を示すため, 広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-02-26T21:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。