論文の概要: Real or Not Real, that is the Question
- arxiv url: http://arxiv.org/abs/2002.05512v1
- Date: Wed, 12 Feb 2020 18:41:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 18:52:39.920670
- Title: Real or Not Real, that is the Question
- Title(参考訳): 現実か非現実か、それが質問だ
- Authors: Yuanbo Xiangli, Yubin Deng, Bo Dai, Chen Change Loy, Dahua Lin
- Abstract要約: 我々は,現実性をランダム変数として扱うことにより,GANを新たな視点に一般化する。
このフレームワークはRealnessGANと呼ばれ、判別器は実数の尺度として分布を出力する。
これにより、基本的なDCGANアーキテクチャは、スクラッチからトレーニングされた1024*1024解像度でリアルな画像を生成することができる。
- 参考スコア(独自算出の注目度): 165.82386565136107
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While generative adversarial networks (GAN) have been widely adopted in
various topics, in this paper we generalize the standard GAN to a new
perspective by treating realness as a random variable that can be estimated
from multiple angles. In this generalized framework, referred to as
RealnessGAN, the discriminator outputs a distribution as the measure of
realness. While RealnessGAN shares similar theoretical guarantees with the
standard GAN, it provides more insights on adversarial learning. Compared to
multiple baselines, RealnessGAN provides stronger guidance for the generator,
achieving improvements on both synthetic and real-world datasets. Moreover, it
enables the basic DCGAN architecture to generate realistic images at 1024*1024
resolution when trained from scratch.
- Abstract(参考訳): 本稿では,様々な話題においてgan(generative adversarial network)が広く採用されている一方で,多角から推定可能な確率変数として現実性を扱うことにより,標準ganを新たな視点に一般化する。
この一般化されたフレームワークはRealnessGANと呼ばれ、判別器は実数の尺度として分布を出力する。
RealnessGANは、標準的なGANと同様の理論的保証を共有しているが、敵対的学習に関する洞察を提供する。
複数のベースラインと比較して、RealnessGANはジェネレータのより強力なガイダンスを提供し、合成データセットと実世界のデータセットの両方の改善を実現している。
さらに、scratchからトレーニングすると、1024*1024の解像度で現実的なイメージを生成することができる。
関連論文リスト
- Generalized Deepfake Attribution [1.4999444543328293]
Generative Adversarial Networks (GAN) は、使用する種によって無数のGANモデルを生成することができる。
既存のディープフェイクの帰属方法は、トレーニング中に特定のGANモデルを見た場合にのみうまく機能する。
一般化されたディープフェイク属性ネットワーク(GDA-N et)を提案する。
論文 参考訳(メタデータ) (2024-06-26T12:04:09Z) - Towards Realistic Data Generation for Real-World Super-Resolution [58.88039242455039]
RealDGenは、現実世界の超解像のために設計された教師なし学習データ生成フレームワークである。
我々は,コンテンツ分解脱結合拡散モデルに統合されたコンテンツと劣化抽出戦略を開発する。
実験により、RealDGenは、現実世界の劣化を反映する大規模で高品質なペアデータを生成するのに優れていることが示された。
論文 参考訳(メタデータ) (2024-06-11T13:34:57Z) - Distilling Representations from GAN Generator via Squeeze and Span [55.76208869775715]
本稿では,GANジェネレータから知識を抽出し,その表現を抽出する手法を提案する。
我々は,合成ドメインの蒸留された表現を実領域に分散し,実際のトレーニングデータを用いてGANのモード崩壊を緩和する。
論文 参考訳(メタデータ) (2022-11-06T01:10:28Z) - Details or Artifacts: A Locally Discriminative Learning Approach to
Realistic Image Super-Resolution [28.00231586840797]
近年,GAN (Generative Adversarial Network) の単一画像超解像 (SISR) が注目されている。
本稿では、視覚的アーチファクトを抑えつつ、知覚的にリアルなディテールを安定的に生成できるGANベースのSISRモデルを訓練できることを実証する。
論文 参考訳(メタデータ) (2022-03-17T09:35:50Z) - Forward Super-Resolution: How Can GANs Learn Hierarchical Generative
Models for Real-World Distributions [66.05472746340142]
生成ネットワーク(GAN)は、複雑で現実世界の分布を学習する上で最も成功したネットワークの一つである。
本稿では,GANが実写画像の分布を効率的に学習する方法について述べる。
論文 参考訳(メタデータ) (2021-06-04T17:33:29Z) - Improving Generative Adversarial Networks with Local Coordinate Coding [150.24880482480455]
GAN(Generative Adversarial Network)は、事前定義された事前分布から現実的なデータを生成することに成功している。
実際には、意味情報はデータから学んだ潜在的な分布によって表現される。
ローカル座標符号化(LCC)を用いたLCCGANモデルを提案する。
論文 参考訳(メタデータ) (2020-07-28T09:17:50Z) - Robust Generative Adversarial Network [37.015223009069175]
トレーニングサンプルの小さな地区における局所的ロバスト性を促進することにより,GANの一般化能力の向上を目指す。
我々は,ジェネレータと識別器が,小さなワッサーシュタイン球内でテキストワーストケース設定で互いに競合する,ロバストな最適化フレームワークを設計する。
我々の頑健な手法は、穏やかな仮定の下で従来のGANよりも厳密な一般化上限が得られることを証明した。
論文 参考訳(メタデータ) (2020-04-28T07:37:01Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。