論文の概要: Improving GAN Training via Feature Space Shrinkage
- arxiv url: http://arxiv.org/abs/2303.01559v1
- Date: Thu, 2 Mar 2023 20:22:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 17:05:24.059026
- Title: Improving GAN Training via Feature Space Shrinkage
- Title(参考訳): 特徴空間収縮によるGAN訓練の改善
- Authors: Haozhe Liu, Wentian Zhang, Bing Li, Haoqian Wu, Nanjun He, Yawen
Huang, Yuexiang Li, Bernard Ghanem, Yefeng Zheng
- Abstract要約: 本稿では,識別器の画像表現空間におけるトレーニングデータの領域を縮小するAdaptiveMixを提案する。
直接有界な特徴空間を考慮し, ハードサンプルを構築し, ハードサンプルと簡単なサンプル間の特徴距離を狭めることを提案する。
評価結果から,我々のAdaptiveMixはGANの訓練を容易にし,生成したサンプルの画像品質を効果的に向上させることができることが示された。
- 参考スコア(独自算出の注目度): 69.98365478398593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the outstanding capability for data generation, Generative Adversarial
Networks (GANs) have attracted considerable attention in unsupervised learning.
However, training GANs is difficult, since the training distribution is dynamic
for the discriminator, leading to unstable image representation. In this paper,
we address the problem of training GANs from a novel perspective, \emph{i.e.,}
robust image classification. Motivated by studies on robust image
representation, we propose a simple yet effective module, namely AdaptiveMix,
for GANs, which shrinks the regions of training data in the image
representation space of the discriminator. Considering it is intractable to
directly bound feature space, we propose to construct hard samples and narrow
down the feature distance between hard and easy samples. The hard samples are
constructed by mixing a pair of training images. We evaluate the effectiveness
of our AdaptiveMix with widely-used and state-of-the-art GAN architectures. The
evaluation results demonstrate that our AdaptiveMix can facilitate the training
of GANs and effectively improve the image quality of generated samples. We also
show that our AdaptiveMix can be further applied to image classification and
Out-Of-Distribution (OOD) detection tasks, by equipping it with
state-of-the-art methods. Extensive experiments on seven publicly available
datasets show that our method effectively boosts the performance of baselines.
The code is publicly available at
https://github.com/WentianZhang-ML/AdaptiveMix.
- Abstract(参考訳): データ生成の優れた能力のため、GAN(Generative Adversarial Networks)は教師なし学習において大きな注目を集めている。
しかし, 判別器のトレーニング分布は動的であり, 不安定な画像表現につながるため, GANの学習は困難である。
本稿では,新しい視点からGANを訓練する際の問題点,すなわち,頑健な画像分類の問題に対処する。
我々は,ロバストな画像表現の研究に動機づけられ,識別器の画像表現空間におけるトレーニングデータの領域を縮小する,単純かつ効果的なgans用モジュール,adaptivemixを提案する。
直接有界な特徴空間を考慮し, ハードサンプルを構築し, ハードサンプルと簡単なサンプル間の特徴距離を狭めることを提案する。
ハードサンプルは、一対のトレーニングイメージを混合して構成される。
我々は、広く使われている最先端のGANアーキテクチャを用いたAdaptiveMixの有効性を評価する。
評価の結果,aadaptivemixはganのトレーニングを容易にし,生成したサンプルの画質を効果的に向上できることがわかった。
また、我々のAdaptiveMixは画像分類やOOD(Out-Of-Distribution)検出タスクにも適用可能であることを示す。
7つの公開データセットに関する広範な実験により、本手法がベースラインのパフォーマンスを効果的に向上させることが示された。
コードはhttps://github.com/WentianZhang-ML/AdaptiveMixで公開されている。
関連論文リスト
- Representation Alignment for Generation: Training Diffusion Transformers Is Easier Than You Think [72.48325960659822]
生成のための大規模拡散モデルの訓練における主要なボトルネックは、これらの表現を効果的に学習することにある。
本稿では,RePresentation Alignment (REPA) と呼ばれる単純な正規化を導入し,ノイズの多い入力隠れ状態の投影を,外部の事前学習された視覚エンコーダから得られるクリーンな画像表現と整合させる手法を提案する。
我々の単純な戦略は、一般的な拡散やDiTsやSiTsといったフローベースのトランスフォーマーに適用した場合、トレーニング効率と生成品質の両方に大きな改善をもたらす。
論文 参考訳(メタデータ) (2024-10-09T14:34:53Z) - E$^{2}$GAN: Efficient Training of Efficient GANs for Image-to-Image Translation [69.72194342962615]
拡散モデルからGANを蒸留するプロセスは、より効率的にできるのか?
まず、一般化された特徴を持つベースGANモデルを構築し、微調整により異なる概念に適応し、スクラッチからトレーニングの必要性を排除した。
第2に,ベースモデル全体の微調整を行うのではなく,低ランク適応(LoRA)を簡易かつ効果的なランク探索プロセスで行う。
第3に、微調整に必要な最小限のデータ量を調査し、トレーニング時間を短縮する。
論文 参考訳(メタデータ) (2024-01-11T18:59:14Z) - The Journey, Not the Destination: How Data Guides Diffusion Models [75.19694584942623]
大規模なデータセットでトレーニングされた拡散モデルは、顕著な品質と多様性のフォトリアリスティックなイメージを合成することができる。
i)拡散モデルの文脈でデータ属性の形式的概念を提供し、(ii)そのような属性を反実的に検証することを可能にする枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-11T08:39:43Z) - Few-shot Image Generation via Masked Discrimination [20.998032566820907]
少ないショット画像生成は、限られたデータで高品質で多彩な画像を生成することを目的としている。
現代のGANでは、ほんの数枚の画像で訓練された場合、過度な適合を避けることは困難である。
本研究は,マスク付き識別による少数ショットGAN適応を実現するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-10-27T06:02:22Z) - ReMix: Towards Image-to-Image Translation with Limited Data [154.71724970593036]
本稿では,この問題に対処するためのデータ拡張手法(ReMix)を提案する。
特徴レベルでのトレーニングサンプルを補間し、サンプル間の知覚的関係に基づく新しいコンテンツ損失を提案します。
提案手法は, 生成のあいまいさを効果的に低減し, コンテンツ保存結果を生成する。
論文 参考訳(メタデータ) (2021-03-31T06:24:10Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - Unlabeled Data Guided Semi-supervised Histopathology Image Segmentation [34.45302976822067]
生成法に基づく半教師付き学習(SSL)は,多様な画像特性の活用に有効であることが証明されている。
非ラベルデータ分布を利用した病理組織像分割のための新しいデータガイド生成法を提案する。
本手法は腺および核データセット上で評価される。
論文 参考訳(メタデータ) (2020-12-17T02:54:19Z) - Multiclass non-Adversarial Image Synthesis, with Application to
Classification from Very Small Sample [6.243995448840211]
我々は、新しい非逆生成法 - LA(Clustered Optimization of LAtent space)を提案する。
本手法は,全データレギュレーションにおいて,教師なしの多様なマルチクラス画像を生成することができる。
ラベル付き画像の小さなサンプルのみが、追加のラベル付きデータにアクセスせずにトレーニングできる小データ体制では、同じ量のデータでトレーニングされた最先端のGANモデルを上回る結果が得られる。
論文 参考訳(メタデータ) (2020-11-25T18:47:27Z) - Training End-to-end Single Image Generators without GANs [27.393821783237186]
AugurOneは、単一画像生成モデルをトレーニングするための新しいアプローチである。
提案手法は,入力画像の非アフィン強化を用いて,アップスケーリングニューラルネットワークを訓練する。
制御画像合成が可能なコンパクト潜在空間を共同で学習する。
論文 参考訳(メタデータ) (2020-04-07T17:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。