論文の概要: Image Augmentations for GAN Training
- arxiv url: http://arxiv.org/abs/2006.02595v1
- Date: Thu, 4 Jun 2020 00:16:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 08:57:12.600976
- Title: Image Augmentations for GAN Training
- Title(参考訳): GANトレーニングのための画像強化
- Authors: Zhengli Zhao, Zizhao Zhang, Ting Chen, Sameer Singh, Han Zhang
- Abstract要約: 我々は,バニラGANとGANの両方のイメージを正規化して拡張する方法に関する洞察とガイドラインを提供する。
意外なことに、Vanilla GANsは、最近の最先端の結果と同等の世代品質を実現している。
- 参考スコア(独自算出の注目度): 57.65145659417266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentations have been widely studied to improve the accuracy and
robustness of classifiers. However, the potential of image augmentation in
improving GAN models for image synthesis has not been thoroughly investigated
in previous studies. In this work, we systematically study the effectiveness of
various existing augmentation techniques for GAN training in a variety of
settings. We provide insights and guidelines on how to augment images for both
vanilla GANs and GANs with regularizations, improving the fidelity of the
generated images substantially. Surprisingly, we find that vanilla GANs attain
generation quality on par with recent state-of-the-art results if we use
augmentations on both real and generated images. When this GAN training is
combined with other augmentation-based regularization techniques, such as
contrastive loss and consistency regularization, the augmentations further
improve the quality of generated images. We provide new state-of-the-art
results for conditional generation on CIFAR-10 with both consistency loss and
contrastive loss as additional regularizations.
- Abstract(参考訳): データ拡張は、分類器の精度と堅牢性を改善するために広く研究されている。
しかし, 画像合成のためのGANモデルの改良における画像増強の可能性は, これまでは十分に研究されていない。
本研究は, GANトレーニングにおける既存の強化手法の有効性を, 様々な環境で体系的に検討する。
我々は,バニラGANとGANの両画像の正規化に関する洞察とガイドラインを提供し,生成した画像の忠実度を大幅に向上させる。
驚いたことに、実際の画像と生成された画像の両方で拡張を使用すると、バニラGANは最近の最先端の結果と同等に生成品質が得られる。
このGANトレーニングと、対照的な損失や一貫性の正則化といった、他の拡張ベースの正則化技術が組み合わさると、増大は生成画像の品質をさらに向上する。
我々は,CIFAR-10上での条件生成について,整合性損失とコントラスト損失の両方を付加正規化として検討した。
関連論文リスト
- Enhancing Low Dose Computed Tomography Images Using Consistency Training Techniques [7.694256285730863]
本稿では,雑音レベル調整の柔軟性を提供するベータノイズ分布について紹介する。
HN-iCT(High Noise Improved Consistency Training)は、教師付き方式で訓練される。
以上の結果より,HN-iCTを用いた非条件画像生成はNFE=1。
論文 参考訳(メタデータ) (2024-11-19T02:48:36Z) - Ultrasound Image Enhancement using CycleGAN and Perceptual Loss [4.428854369140015]
本研究は超音波画像,特に携帯型ハンドヘルドデバイスで捉えた画像の高機能化を目的とした高度なフレームワークを導入する。
我々は,5臓器系における超音波画像強調のために,CycleGANモデルを用いた。
論文 参考訳(メタデータ) (2023-12-18T23:21:00Z) - DifAugGAN: A Practical Diffusion-style Data Augmentation for GAN-based
Single Image Super-resolution [88.13972071356422]
本稿では,DifAugGAN として知られる GAN ベースの画像超解像法(SR) のための拡散型データ拡張手法を提案する。
それは、訓練中の判別器の校正を改善するために、生成拡散モデルに拡散過程を適用することを含む。
我々のDifAugGANは、現在のGANベースのSISR手法のプラグ・アンド・プレイ戦略であり、判別器の校正を改善し、SR性能を向上させることができる。
論文 参考訳(メタデータ) (2023-11-30T12:37:53Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Bridging Synthetic and Real Images: a Transferable and Multiple
Consistency aided Fundus Image Enhancement Framework [61.74188977009786]
画像強調とドメイン適応を同時に行うために,エンドツーエンドの教師支援フレームワークを提案する。
また,教師ネットワークと学生ネットワークのバックボーンとして,マルチステージ型マルチアテンション・ガイド・エンハンスメント・ネットワーク(MAGE-Net)を提案する。
論文 参考訳(メタデータ) (2023-02-23T06:16:15Z) - Dynamic Test-Time Augmentation via Differentiable Functions [3.686808512438363]
DynTTAは、認識モデルを再訓練することなく、認識に優しい画像を生成する画像強調手法である。
DynTTAは、微分可能なデータ拡張技術に基づいて、多くの画像からブレンド画像を生成し、分布シフト時の認識精度を向上させる。
論文 参考訳(メタデータ) (2022-12-09T06:06:47Z) - Evolving GAN Formulations for Higher Quality Image Synthesis [15.861807854144228]
generative adversarial networks (gans) はディープラーニングを複雑な生成と翻訳タスクに拡張した。
トレーニングプロセスにおけるモード崩壊やその他の不安定性は、生成された結果の品質を劣化させることが多い。
本稿では2つのネットワーク毎にカスタマイズされた損失関数を発見し,GANを改善するためのTaylorGANという新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-17T05:11:21Z) - Generative Data Augmentation for Commonsense Reasoning [75.26876609249197]
G-DAUGCは、低リソース環境でより正確で堅牢な学習を実現することを目的とした、新しい生成データ拡張手法である。
G-DAUGCは、バックトランスレーションに基づく既存のデータ拡張手法を一貫して上回っている。
分析の結果,G-DAUGCは多種多様な流線型学習例を産出し,その選択と学習アプローチが性能向上に重要であることが示された。
論文 参考訳(メタデータ) (2020-04-24T06:12:10Z) - Improved Consistency Regularization for GANs [102.17007700413326]
本稿では,その性能向上を目的とした整合性正規化手法について,いくつかの改良を加えて検討する。
CIFAR-10とCelebAの無条件画像合成では、様々なGANアーキテクチャ上で最もよく知られたFIDスコアが得られる。
ImageNet-2012では、この手法をオリジナルのBigGANモデルに適用し、FIDを6.66から5.38に改善する。
論文 参考訳(メタデータ) (2020-02-11T22:53:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。