論文の概要: Discriminator optimal transport
- arxiv url: http://arxiv.org/abs/1910.06832v3
- Date: Tue, 8 Aug 2023 07:50:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 18:08:58.332825
- Title: Discriminator optimal transport
- Title(参考訳): 識別器最適輸送
- Authors: Akinori Tanaka
- Abstract要約: 判別器最適化プロセスは、ターゲット分布$p$とジェネレータ分布$p_G$との間のワッサーシュタイン距離の二重コスト関数の低境界を増大させることを示す。
これは、訓練された判別器が、$p_G$から$p$までの最適な輸送(OT)を近似できることを意味する。
CIFAR-10, STL-10 で訓練された無条件 GAN と ImageNet による条件付き GAN の事前学習モデルにより, 開始スコアと FID が向上することを示す。
- 参考スコア(独自算出の注目度): 6.624726878647543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Within a broad class of generative adversarial networks, we show that
discriminator optimization process increases a lower bound of the dual cost
function for the Wasserstein distance between the target distribution $p$ and
the generator distribution $p_G$. It implies that the trained discriminator can
approximate optimal transport (OT) from $p_G$ to $p$.Based on some experiments
and a bit of OT theory, we propose a discriminator optimal transport (DOT)
scheme to improve generated images. We show that it improves inception score
and FID calculated by un-conditional GAN trained by CIFAR-10, STL-10 and a
public pre-trained model of conditional GAN by ImageNet.
- Abstract(参考訳): 生成逆数ネットワークの幅広いクラスにおいて、判別器最適化プロセスは、ターゲット分布$p$とジェネレータ分布$p_G$の間のワッサーシュタイン距離に対する双対コスト関数の下位境界を増大させることを示す。
これは、訓練された判別器が$p_G$から$p$まで最適輸送(OT)を近似できることを意味する。
いくつかの実験と少しのot理論に基づき、画像生成を改善するための判別器最適輸送(dot)スキームを提案する。
CIFAR-10, STL-10 で訓練された無条件 GAN と ImageNet による条件付き GAN の事前学習モデルにより, 開始スコアと FID が向上することを示す。
関連論文リスト
- Double-Bounded Optimal Transport for Advanced Clustering and
Classification [58.237576976486544]
本稿では,2つの境界内での目標分布の制限を前提としたDB-OT(Douubly bounded Optimal Transport)を提案する。
提案手法は,テスト段階における改良された推論方式により,良好な結果が得られることを示す。
論文 参考訳(メタデータ) (2024-01-21T07:43:01Z) - Normalizing flows as approximations of optimal transport maps via linear-control neural ODEs [49.1574468325115]
ニューマライズフロー」は、深層ニューラルネットワークを用いて確率測度間の可逆輸送マップを構築するタスクに関連している。
我々は、絶対連続測度$mu,nuinmathcalP(mathbbRn)$間の$Wamma$-optimal transport map $T$を線形制御ニューラルネットワークのフローとして回収する問題を考える。
論文 参考訳(メタデータ) (2023-11-02T17:17:03Z) - Computing high-dimensional optimal transport by flow neural networks [22.320632565424745]
この研究はフローベースモデルを開発し、P$から任意の$Q$に転送する。
本稿では,フローニューラルネットワークのトレーニングにより,$P$と$Q$の間の動的最適輸送を学習することを提案する。
訓練された最適輸送流はその後、無限小密度推定(DRE)や、生成モデルのための潜在空間における分布を含む多くの下流タスクを実行することができる。
論文 参考訳(メタデータ) (2023-05-19T17:48:21Z) - SAN: Inducing Metrizability of GAN with Discriminative Normalized Linear Layer [20.667910240515482]
GAN(Generative Adversarial Network)は、ジェネレータと識別器を極小目標で最適化することにより、ターゲットの確率分布を学習する。
本稿では,そのような最適化が,対象分布に近づいた勾配を持つ生成器を実際に提供するかどうかという問題に対処する。
我々は、スライシング対逆ネットワーク(SAN)と呼ばれる新しいGANトレーニングスキームを提案する。
論文 参考訳(メタデータ) (2023-01-30T12:03:44Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - Training Wasserstein GANs without gradient penalties [4.0489350374378645]
本稿では,Wasserstein生成逆数ネットワークを訓練するための安定な手法を提案する。
我々は,このアルゴリズムが判別器のリプシッツ制約を効果的に適用できることを実験的に示す。
我々の手法は勾配のペナルティを必要とせず、他の方法よりも計算効率が良い。
論文 参考訳(メタデータ) (2021-10-27T03:46:13Z) - Convergence and Sample Complexity of SGD in GANs [15.25030172685628]
SGDによるGAN(Generative Adversarial Networks)のトレーニングにおける収束保証を提供する。
我々は,非線形アクティベーション機能を持つ1層ジェネレータネットワークによってモデル化されたターゲット分布の学習を検討する。
この結果は、ReLUを含む幅広い非線形アクティベーション関数 $phi$ に適用され、切り離された統計との接続によって実現される。
論文 参考訳(メタデータ) (2020-12-01T18:50:38Z) - Sampling-Decomposable Generative Adversarial Recommender [84.05894139540048]
サンプル分解可能な生成逆数レコメンダ(SD-GAR)を提案する。
本フレームワークでは, 自己正規化重要度サンプリングにより, 生成元と最適値とのばらつきを補償する。
提案アルゴリズムを5つの実世界のレコメンデーションデータセットを用いて広範囲に評価する。
論文 参考訳(メタデータ) (2020-11-02T13:19:10Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - Your GAN is Secretly an Energy-based Model and You Should use
Discriminator Driven Latent Sampling [106.68533003806276]
本研究では,潜時空間におけるサンプリングは,潜時空間の前対数密度と判別器出力スコアの和によって誘導されるエネルギーベースモデルに従って,潜時空間におけるサンプリングを行うことによって達成できることを示す。
判別器駆動潜時サンプリング(DDLS)は,高次元画素空間で動作する従来の手法と比較して,高効率であることを示す。
論文 参考訳(メタデータ) (2020-03-12T23:33:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。