論文の概要: Efficient Subsampling for Generating High-Quality Images from
Conditional Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2103.11166v1
- Date: Sat, 20 Mar 2021 12:19:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 15:02:48.985191
- Title: Efficient Subsampling for Generating High-Quality Images from
Conditional Generative Adversarial Networks
- Title(参考訳): 条件付き生成逆数ネットワークから高画質画像を生成するための効率的なサブサンプリング
- Authors: Xin Ding, Yongwei Wang, Z. Jane Wang, William J. Welch
- Abstract要約: 画像品質を改善するために, GAN(unconditional generative adversarial Network)のサブサンプリングを行った。
本稿では,条件付きソフトプラス損失(cDRE-F-cSP)を有する特徴空間における条件密度比推定法を提案する。
CIFAR-10およびTiny-ImageNetデータセットの実験は、cDRE-F-cSP+RSがBigGANのFIDおよびFIDスコアを実質的に改善できることを示しています。
- 参考スコア(独自算出の注目度): 17.26892003995234
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Subsampling unconditional generative adversarial networks (GANs) to improve
the overall image quality has been studied recently. However, these methods
often require high training costs (e.g., storage space, parameter tuning) and
may be inefficient or even inapplicable for subsampling conditional GANs, such
as class-conditional GANs and continuous conditional GANs (CcGANs), when the
condition has many distinct values. In this paper, we propose an efficient
method called conditional density ratio estimation in feature space with
conditional Softplus loss (cDRE-F-cSP). With cDRE-F-cSP, we estimate an image's
conditional density ratio based on a novel conditional Softplus (cSP) loss in
the feature space learned by a specially designed ResNet-34 or sparse
autoencoder. We then derive the error bound of a conditional density ratio
model trained with the proposed cSP loss. Finally, we propose a rejection
sampling scheme, termed cDRE-F-cSP+RS, which can subsample both
class-conditional GANs and CcGANs efficiently. An extra filtering scheme is
also developed for CcGANs to increase the label consistency. Experiments on
CIFAR-10 and Tiny-ImageNet datasets show that cDRE-F-cSP+RS can substantially
improve the Intra-FID and FID scores of BigGAN. Experiments on RC-49 and
UTKFace datasets demonstrate that cDRE-F-cSP+RS also improves Intra-FID,
Diversity, and Label Score of CcGANs. Moreover, to show the high efficiency of
cDRE-F-cSP+RS, we compare it with the state-of-the-art unconditional
subsampling method (i.e., DRE-F-SP+RS). With comparable or even better
performance, cDRE-F-cSP+RS only requires about \textbf{10}\% and \textbf{1.7}\%
of the training costs spent respectively on CIFAR-10 and UTKFace by
DRE-F-SP+RS.
- Abstract(参考訳): 画像品質を改善するために, GAN(unconditional generative adversarial Network)のサブサンプリングを行った。
しかし、これらの手法は高いトレーニングコスト(例えば、ストレージスペース、パラメータチューニング)を必要とすることが多く、条件付きGANや連続条件付きGAN(CcGAN)のような条件付きGANのサブサンプリングには非効率または適用不可能である。
本稿では,条件付きソフトプラス損失(cDRE-F-cSP)を有する特徴空間における条件密度比推定法を提案する。
CDRE-F-cSPを用いて、特殊設計されたResNet-34またはスパースオートエンコーダによって学習された特徴空間における新しい条件付きソフトプラス(cSP)損失に基づいて、画像の条件密度比を推定する。
そこで,提案したcSP損失を学習した条件密度比モデルの誤差境界を導出する。
最後に、クラス条件GANとCcGANの両方を効率的にサブサンプル化できる、cDRE-F-cSP+RSと呼ばれる拒絶サンプリング方式を提案する。
また、ラベルの一貫性を高めるため、CcGAN向けに追加のフィルタリング方式も開発されている。
CIFAR-10とTiny-ImageNetデータセットの実験により、cDRE-F-cSP+RSはBigGANのFID内およびFIDスコアを大幅に改善できることが示された。
RC-49とUTKFaceデータセットの実験では、cDRE-F-cSP+RSはCcGANのFID、多様性、ラベルスコアも改善されている。
さらに、cDRE-F-cSP+RSの高効率性を示すために、最先端の非条件サブサンプリング法(DRE-F-SP+RS)と比較する。
cdre-f-csp+rs は cifar-10 と utkface に費やされるトレーニングコストの約 \textbf{10}\% と \textbf{1.7}\% しか必要としない。
関連論文リスト
- Implicit Grid Convolution for Multi-Scale Image Super-Resolution [6.8410780175245165]
我々は,Implicit Grid Convolution(IGConv)と連携して,単一エンコーダを用いたマルチスケールフレームワークを提案する。
本フレームワークは,既存の固定スケール手法に匹敵する性能を達成しつつ,トレーニング予算を削減し,パラメータを3倍に抑える。
論文 参考訳(メタデータ) (2024-08-19T03:30:15Z) - CosSIF: Cosine similarity-based image filtering to overcome low
inter-class variation in synthetic medical image datasets [4.959241539157564]
我々はCosSIF(Cosine similarity-based Image Filtering)と呼ばれる新しいフィルタリングアルゴリズムを提案する。
我々はCosSIFを利用して、GANトレーニング前のフィルタリング(FBGT)とGANトレーニング後のフィルタリング(FAGT)の2つの異なるフィルタリング方法を開発した。
実験結果から,FAGT法とFBGT法を現代の変圧器と畳み込み型ネットワークで併用することにより,各種評価指標においてかなりの性能向上が得られた。
論文 参考訳(メタデータ) (2023-07-25T22:37:10Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - Input-Specific Robustness Certification for Randomized Smoothing [76.76115360719837]
本稿では,ロバストネス認証の費用対効果を達成するために,インプット・スペクティブ・サンプリング(ISS)の高速化を提案する。
ISSは、認定半径0.05の限られたコストで3回以上、認定をスピードアップすることができる。
論文 参考訳(メタデータ) (2021-12-21T12:16:03Z) - Are conditional GANs explicitly conditional? [0.0]
本稿では,条件付きジェネレーティブ・アドバイザリ・ネットワーク(cGAN)に対する2つのコントリビューションを提案する。
最初の主な貢献は、cGANの分析であり、それらが明示的に条件付きでないことを示すものである。
第2のコントリビューションは、アコントラリオと呼ばれる新しい手法であり、敵アーキテクチャの両部分の条件性を明示的にモデル化する。
論文 参考訳(メタデータ) (2021-06-28T22:49:27Z) - Label Geometry Aware Discriminator for Conditional Generative Networks [40.89719383597279]
条件付きGenerative Adversarial Networks(GAN)は、目的のターゲットクラスで高画質の画像を生成することができます。
これらの合成画像は、画像分類などの下流監督タスクを改善するために必ずしも役に立たない。
論文 参考訳(メタデータ) (2021-05-12T08:17:25Z) - Self Sparse Generative Adversarial Networks [73.590634413751]
GAN(Generative Adversarial Networks)は、敵対的トレーニングを通じてデータ分布を学習する監視されていない生成モデルである。
本論文では,パラメータ空間を小さくし,ゼロ勾配問題を軽減するSelf Sparse Generative Adversarial Network (Self-Sparse GAN)を提案する。
論文 参考訳(メタデータ) (2021-01-26T04:49:12Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z) - Conditioning Trick for Training Stable GANs [70.15099665710336]
本稿では,GANトレーニング中の不安定性問題に対応するため,ジェネレータネットワークに正規性から逸脱する条件付け手法を提案する。
我々は、生成元をシュア分解のスペクトル領域で計算された実サンプルの正規化関数から逸脱するように強制する。
論文 参考訳(メタデータ) (2020-10-12T16:50:22Z) - Second-Order Provable Defenses against Adversarial Attacks [63.34032156196848]
ネットワークの固有値が有界であれば、凸最適化を用いて$l$ノルムの証明を効率的に計算できることを示す。
認証精度は5.78%,44.96%,43.19%であった。
論文 参考訳(メタデータ) (2020-06-01T05:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。