論文の概要: Unrealistic Feature Suppression for Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2107.11047v1
- Date: Fri, 23 Jul 2021 06:43:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-26 13:54:22.301342
- Title: Unrealistic Feature Suppression for Generative Adversarial Networks
- Title(参考訳): 生成型adversarial networkにおける非現実的特徴抑制
- Authors: Sanghun Kim and SeungKyu Lee
- Abstract要約: 高品質な特徴を保ち、非現実的な特徴を抑圧する非現実的特徴抑圧(UFS)モジュールを提案する。
UFSモジュールはネットワークのトレーニング安定性を維持し、生成された画像の品質を向上させる。
WGAN-GP, SNGAN, BigGAN などのモデルにおける UFS モジュールの有効性を示す。
- 参考スコア(独自算出の注目度): 3.3504365823045044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the unstable nature of minimax game between generator and
discriminator, improving the performance of GANs is a challenging task. Recent
studies have shown that selected high-quality samples in training improve the
performance of GANs. However, sampling approaches which discard samples show
limitations in some aspects such as the speed of training and optimality of the
networks. In this paper we propose unrealistic feature suppression (UFS) module
that keeps high-quality features and suppresses unrealistic features. UFS
module keeps the training stability of networks and improves the quality of
generated images. We demonstrate the effectiveness of UFS module on various
models such as WGAN-GP, SNGAN, and BigGAN. By using UFS module, we achieved
better Frechet inception distance and inception score compared to various
baseline models. We also visualize how effectively our UFS module suppresses
unrealistic features through class activation maps.
- Abstract(参考訳): ジェネレータとディスクリミネータ間のミニマックスゲームが不安定であることから,GANの性能向上は難しい課題である。
近年の研究では、訓練における高品質なサンプルの選択により、GANの性能が向上することが示されている。
しかし、サンプルを廃棄するサンプリング手法は、トレーニングの速度やネットワークの最適性といったいくつかの面で制限を示す。
本稿では,高品質な特徴を保ち,非現実的特徴を抑圧する非現実的特徴抑圧(UFS)モジュールを提案する。
UFSモジュールはネットワークのトレーニング安定性を維持し、生成された画像の品質を向上させる。
WGAN-GP, SNGAN, BigGAN などのモデルにおける UFS モジュールの有効性を示す。
UFSモジュールを用いて,様々なベースラインモデルと比較してFrechet開始距離と開始スコアが向上した。
また、ufsモジュールがクラスアクティベーションマップを通じて非現実的な機能を効果的に抑制する様子を可視化する。
関連論文リスト
- UniFL: Improve Stable Diffusion via Unified Feedback Learning [51.18278664629821]
提案するUniFLは,フィードバック学習を活用して拡張モデルを包括的に拡張する統合フレームワークである。
UniFLには、視覚的品質を高める知覚的フィードバック学習、美的魅力を改善する分離されたフィードバック学習、推論速度を最適化する敵対的フィードバック学習という3つの重要な要素が組み込まれている。
詳細な実験と広範囲なユーザスタディにより,生成したモデルの品質と高速化の両面において,提案手法の優れた性能が検証された。
論文 参考訳(メタデータ) (2024-04-08T15:14:20Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - DuDGAN: Improving Class-Conditional GANs via Dual-Diffusion [2.458437232470188]
GAN(Generative Adversarial Network)を用いたクラス条件画像生成について,様々な手法を用いて検討した。
本稿では,DuDGANと呼ばれる2次元拡散型ノイズ注入法を取り入れたGANを用いたクラス条件画像生成手法を提案する。
提案手法は,画像生成のための現状条件付きGANモデルよりも性能的に優れている。
論文 参考訳(メタデータ) (2023-05-24T07:59:44Z) - Improving GAN Training via Feature Space Shrinkage [69.98365478398593]
本稿では,識別器の画像表現空間におけるトレーニングデータの領域を縮小するAdaptiveMixを提案する。
直接有界な特徴空間を考慮し, ハードサンプルを構築し, ハードサンプルと簡単なサンプル間の特徴距離を狭めることを提案する。
評価結果から,我々のAdaptiveMixはGANの訓練を容易にし,生成したサンプルの画像品質を効果的に向上させることができることが示された。
論文 参考訳(メタデータ) (2023-03-02T20:22:24Z) - Prb-GAN: A Probabilistic Framework for GAN Modelling [20.181803514993778]
本稿では,ネットワークパラメータ上の分布を生成するためにドロップアウトを用いた新しいバリエーションを提案する。
我々の手法は非常にシンプルで、既存のGANアーキテクチャの変更はほとんど必要ありません。
論文 参考訳(メタデータ) (2021-07-12T08:04:13Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - FASA: Feature Augmentation and Sampling Adaptation for Long-Tailed
Instance Segmentation [91.129039760095]
ロングテールインスタンスセグメンテーションの最近の手法は、トレーニングデータが少ないレアオブジェクトクラスで未だに苦労している。
本稿では,FASA(Feature Augmentation and Smpling Adaptation)を提案する。
FASAは、標準またはロングテールのセグメンテーションフレームワークに簡単に接続できる、高速で汎用的な方法です。
論文 参考訳(メタデータ) (2021-02-25T14:07:23Z) - Feature Quantization Improves GAN Training [126.02828112121874]
識別器の特徴量子化(FQ)は、真と偽のデータの両方を共有離散空間に埋め込む。
本手法は,既存のGANモデルに容易に接続でき,訓練における計算オーバーヘッドがほとんどない。
論文 参考訳(メタデータ) (2020-04-05T04:06:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。