論文の概要: Improving Generative Adversarial Networks with Local Coordinate Coding
- arxiv url: http://arxiv.org/abs/2008.00942v1
- Date: Tue, 28 Jul 2020 09:17:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 01:24:59.853166
- Title: Improving Generative Adversarial Networks with Local Coordinate Coding
- Title(参考訳): 局所コーディネート符号化による生成対向ネットワークの改善
- Authors: Jiezhang Cao, Yong Guo, Qingyao Wu, Chunhua Shen, Junzhou Huang,
Mingkui Tan
- Abstract要約: GAN(Generative Adversarial Network)は、事前定義された事前分布から現実的なデータを生成することに成功している。
実際には、意味情報はデータから学んだ潜在的な分布によって表現される。
ローカル座標符号化(LCC)を用いたLCCGANモデルを提案する。
- 参考スコア(独自算出の注目度): 150.24880482480455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks (GANs) have shown remarkable success in
generating realistic data from some predefined prior distribution (e.g.,
Gaussian noises). However, such prior distribution is often independent of real
data and thus may lose semantic information (e.g., geometric structure or
content in images) of data. In practice, the semantic information might be
represented by some latent distribution learned from data. However, such latent
distribution may incur difficulties in data sampling for GANs. In this paper,
rather than sampling from the predefined prior distribution, we propose an
LCCGAN model with local coordinate coding (LCC) to improve the performance of
generating data. First, we propose an LCC sampling method in LCCGAN to sample
meaningful points from the latent manifold. With the LCC sampling method, we
can exploit the local information on the latent manifold and thus produce new
data with promising quality. Second, we propose an improved version, namely
LCCGAN++, by introducing a higher-order term in the generator approximation.
This term is able to achieve better approximation and thus further improve the
performance. More critically, we derive the generalization bound for both
LCCGAN and LCCGAN++ and prove that a low-dimensional input is sufficient to
achieve good generalization performance. Extensive experiments on four
benchmark datasets demonstrate the superiority of the proposed method over
existing GANs.
- Abstract(参考訳): GAN(Generative Adversarial Network)は、事前定義された事前分布(ガウスノイズなど)から現実的なデータを生成することに成功している。
しかし、そのような事前分布はしばしば実データとは独立しており、データの意味的情報(例えば、画像中の幾何学的構造や内容)を失うことがある。
実際には、セマンティック情報はデータから学んだ潜在分布によって表現される。
しかし、そのような潜在分布はganのデータサンプリングの困難をもたらす可能性がある。
本稿では,事前に定義された分布からサンプリングするのではなく,局所座標符号化(LCC)を用いたLCCGANモデルを提案する。
まず,lccganのlccサンプリング法を提案し,潜在多様体から有意点をサンプリングする。
lccサンプリング法により, 潜在多様体の局所情報を活用し, 有望な品質の新しいデータを生成することができる。
次に,ジェネレータ近似に高次項を導入することにより,LCCGAN++の改良版を提案する。
この用語はより良い近似を達成でき、それによってさらに性能が向上する。
より重要なことは、LCCGANとLCCGAN++の両方の一般化バウンダリを導出し、低次元入力が十分であることを示すことである。
4つのベンチマークデータセットに対する大規模な実験は、提案手法が既存のGANよりも優れていることを示す。
関連論文リスト
- SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - LD-GAN: Low-Dimensional Generative Adversarial Network for Spectral
Image Generation with Variance Regularization [72.4394510913927]
ディープラーニング法はスペクトル画像(SI)計算タスクの最先端技術である。
GANは、データ分散から学習およびサンプリングすることで、多様な拡張を可能にする。
この種のデータの高次元性は、GANトレーニングの収束を妨げるため、GANベースのSI生成は困難である。
本稿では, オートエンコーダ訓練における低次元表現分散を制御し, GANで生成されたサンプルの多様性を高めるための統計正則化を提案する。
論文 参考訳(メタデータ) (2023-04-29T00:25:02Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Top-Down Deep Clustering with Multi-generator GANs [0.0]
ディープクラスタリング(DC)は、クラスタ分析に最適な埋め込み空間を学習する。
複数のジェネレータ(MGAN)を持つGANをベースとした新しい技術であるHC-MGANを提案する。
本手法は,MGANの各生成元が実データ分布のサブリージョンと相関するデータを生成する傾向にあるという観察に着想を得たものである。
論文 参考訳(メタデータ) (2021-12-06T22:53:12Z) - Improving Model Compatibility of Generative Adversarial Networks by
Boundary Calibration [24.28407308818025]
境界キャリブレーションGAN(BCGAN)は、GANのモデル互換性を改善するために提案される。
BCGANはオリジナルのGANのようなリアルなイメージを生成するが、オリジナルのGANよりも優れたモデル互換性を実現する。
論文 参考訳(メタデータ) (2021-11-03T16:08:09Z) - PriorGAN: Real Data Prior for Generative Adversarial Nets [36.01759301994946]
本稿では,GAN(PreferGAN)と呼ばれる,GANの実際のデータ分布全体をキャプチャする手法を提案する。
実験の結果,CIFAR-10,FFHQ,LSUN-cat,LSUN-birdのデータセットにおいて,プリエントGANは最先端のデータセットよりも大きな差があることがわかった。
論文 参考訳(メタデータ) (2020-06-30T17:51:47Z) - Towards GANs' Approximation Ability [8.471366736328811]
本稿ではまず,GANの近似特性を理論的に解析する。
GANの入力潜在変数を持つジェネレータは、ポテンシャルデータ分布を普遍的に近似できることを示す。
実際のデータセットでは、SDGを使用する4つのGANは、モデルアーキテクチャが小さい場合、対応する従来のGANよりも優れる。
論文 参考訳(メタデータ) (2020-04-10T02:40:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。