論文の概要: Bidirectional Generative Modeling Using Adversarial Gradient Estimation
- arxiv url: http://arxiv.org/abs/2002.09161v3
- Date: Tue, 30 Jun 2020 03:59:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 00:15:30.338829
- Title: Bidirectional Generative Modeling Using Adversarial Gradient Estimation
- Title(参考訳): 逆勾配推定を用いた双方向生成モデル
- Authors: Xinwei Shen, Tong Zhang, Kani Chen
- Abstract要約: 異なる発散が勾配評価の点で類似したアルゴリズムを誘導することを示す。
本稿では,原則付き$f$-divergenceに基づく生成モデリング手法の一般的なレシピを提案する。
- 参考スコア(独自算出の注目度): 15.270525239234072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper considers the general $f$-divergence formulation of bidirectional
generative modeling, which includes VAE and BiGAN as special cases. We present
a new optimization method for this formulation, where the gradient is computed
using an adversarially learned discriminator. In our framework, we show that
different divergences induce similar algorithms in terms of gradient
evaluation, except with different scaling. Therefore this paper gives a general
recipe for a class of principled $f$-divergence based generative modeling
methods. Theoretical justifications and extensive empirical studies are
provided to demonstrate the advantage of our approach over existing methods.
- Abstract(参考訳): 本稿では,VAE と BiGAN を含む双方向生成モデリングの一般的な$f$-divergence の定式化について考察する。
本稿では,この定式化のための新しい最適化手法を提案する。
提案手法では, 異なるダイバーシティが, 異なるスケーリングを除いて, 勾配評価の観点から類似アルゴリズムを誘導することを示す。
そこで本研究では,原則付き$f$-divergenceに基づく生成モデリング手法の一般的なレシピを提案する。
従来の手法に対するアプローチの利点を実証するために,理論的正当化と広範な実証的研究を行った。
関連論文リスト
- Revisiting Extragradient-Type Methods -- Part 1: Generalizations and Sublinear Convergence Rates [6.78476672849813]
本稿では、方程式と包摂性の両方を解くためのよく知られた指数関数法(EG法)を包括的に分析する。
アルゴリズムのクラス全体のサブ線形ベストイテレートとラストイテレートの収束率を分析する。
我々は、新しいアルゴリズムのクラスとそれに対応する収束結果を導入し、上述のEGフレームワークをモノトーンの包含に拡張する。
論文 参考訳(メタデータ) (2024-09-25T12:14:05Z) - A Unified Theory of Stochastic Proximal Point Methods without Smoothness [52.30944052987393]
近点法はその数値的安定性と不完全なチューニングに対する頑健性からかなりの関心を集めている。
本稿では,近位点法(SPPM)の幅広いバリエーションの包括的解析について述べる。
論文 参考訳(メタデータ) (2024-05-24T21:09:19Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Optimal Discriminant Analysis in High-Dimensional Latent Factor Models [1.4213973379473654]
高次元分類問題において、一般的に用いられるアプローチは、まず高次元の特徴を低次元空間に射影することである。
我々は、この2段階の手順を正当化するために、隠れた低次元構造を持つ潜在変数モデルを定式化する。
観測された特徴の特定の主成分(PC)を射影とする計算効率の良い分類器を提案する。
論文 参考訳(メタデータ) (2022-10-23T21:45:53Z) - Efficiently Disentangle Causal Representations [37.1087310583588]
モデルの一般化能力との違いを近似して、標準的な機械学習フレームワークに適合するようにします。
学習者の新しい分布への適応速度に依存する最先端のアプローチとは対照的に,提案手法ではモデルの一般化能力を評価する必要がある。
論文 参考訳(メタデータ) (2022-01-06T07:12:36Z) - Learning Gaussian Graphical Models with Latent Confounders [74.72998362041088]
我々は、グラフィカルモデルにおける推論のための2つの戦略を、潜伏した共同創設者と比較し、対比する。
これら2つのアプローチは、類似した目標を持っているが、それらは共起に関する異なる仮定によって動機付けられている。
これら2つのアプローチの強みを組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-14T00:53:03Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z) - There and Back Again: Revisiting Backpropagation Saliency Methods [87.40330595283969]
正当性法は,各入力サンプルの重要度マップを作成することによって,モデルの予測を説明する。
このような手法の一般的なクラスは、信号のバックプロパゲートと結果の勾配の分析に基づいている。
本稿では,そのような手法を統一可能な単一のフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:58:08Z) - Interpolation Technique to Speed Up Gradients Propagation in Neural ODEs [71.26657499537366]
本稿では,ニューラルネットワークモデルにおける勾配の効率的な近似法を提案する。
我々は、分類、密度推定、推論近似タスクにおいて、ニューラルODEをトレーニングするリバースダイナミック手法と比較する。
論文 参考訳(メタデータ) (2020-03-11T13:15:57Z) - Differential Similarity in Higher Dimensional Spaces: Theory and Applications [0.0]
本研究では,幾何モデルと確率モデルを組み合わせたクラスタリングと符号化のアルゴリズムを開発した。
本研究では,2つの実世界の実例に適用することにより,解法と推定手法の評価を行う。
論文 参考訳(メタデータ) (2019-02-10T20:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。