論文の概要: Augmented Normalizing Flows: Bridging the Gap Between Generative Flows
and Latent Variable Models
- arxiv url: http://arxiv.org/abs/2002.07101v1
- Date: Mon, 17 Feb 2020 17:45:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-31 12:07:17.387139
- Title: Augmented Normalizing Flows: Bridging the Gap Between Generative Flows
and Latent Variable Models
- Title(参考訳): 拡張正規化流れ:生成フローと潜在変数モデルの間のギャップを埋める
- Authors: Chin-Wei Huang, Laurent Dinh, Aaron Courville
- Abstract要約: 本研究では,拡張データ空間上での新たな生成フローの族を提案する。これは,サンプリングの計算コストを大幅に増大させることなく,表現性を向上させることを目的としている。
本稿では,フローベース生成モデリングの標準ベンチマークにおける最先端性能について述べる。
- 参考スコア(独自算出の注目度): 11.206144910991481
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a new family of generative flows on an augmented
data space, with an aim to improve expressivity without drastically increasing
the computational cost of sampling and evaluation of a lower bound on the
likelihood. Theoretically, we prove the proposed flow can approximate a
Hamiltonian ODE as a universal transport map. Empirically, we demonstrate
state-of-the-art performance on standard benchmarks of flow-based generative
modeling.
- Abstract(参考訳): 本研究では,拡張データ空間における新たな生成フローの族を提案する。これは,サンプリングの計算コストを劇的に増加させることなく表現性を向上させることを目的としている。
理論的には、提案された流れは普遍輸送写像としてハミルトニアン ode を近似できることを証明できる。
本研究では,フローベース生成モデリングの標準ベンチマークにおける最先端性能を実証する。
関連論文リスト
- Energy-Based Diffusion Language Models for Text Generation [126.23425882687195]
エネルギーベース拡散言語モデル(Energy-based Diffusion Language Model, EDLM)は、拡散ステップごとに全シーケンスレベルで動作するエネルギーベースモデルである。
我々のフレームワークは、既存の拡散モデルよりも1.3$times$のサンプリングスピードアップを提供する。
論文 参考訳(メタデータ) (2024-10-28T17:25:56Z) - Verlet Flows: Exact-Likelihood Integrators for Flow-Based Generative Models [4.9425328004453375]
ハミルトン力学のシンプレクティックに着想を得た拡張状態空間上のCNFのクラスであるVerlet Flowを提案する。
バーレットフローは、最小の表現性制約を課しながら、非連続的な設定から結合フローアーキテクチャを一般化する、正確な類似した生成モデルを提供する。
おもちゃの密度に関する実験では、一般的なハッチンソントレース推定器のばらつきは重要サンプリングには適さないが、一方、Verletフローは完全オートグレートトレース計算に比較可能であり、かなり高速である。
論文 参考訳(メタデータ) (2024-05-05T03:47:56Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - Generative Modeling with Phase Stochastic Bridges [49.4474628881673]
拡散モデル(DM)は、連続入力のための最先端の生成モデルを表す。
我々はtextbfphase space dynamics に基づく新しい生成モデリングフレームワークを提案する。
我々のフレームワークは、動的伝播の初期段階において、現実的なデータポイントを生成する能力を示す。
論文 参考訳(メタデータ) (2023-10-11T18:38:28Z) - A prior regularized full waveform inversion using generative diffusion
models [0.5156484100374059]
フルウェーブフォームインバージョン(FWI)は高分解能地下モデル推定を提供する可能性がある。
観測の限界、例えば、地域雑音、限られたショットや受信機、帯域制限データなどにより、FWIで所望の高解像度モデルを得るのは難しい。
生成拡散モデルにより正規化されたFWIの新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-06-22T10:10:34Z) - Attentive Contractive Flow with Lipschitz-constrained Self-Attention [25.84621883831624]
注意的収縮フロー(ACF)と呼ばれる新しいアプローチを導入する。
ACFは、フローベースの生成モデル - 収縮フロー - の特別なカテゴリを利用する。
我々は, ACFをプラグアンドプレイ方式で, 各種のアートフローモデルに導入できることを実証した。
論文 参考訳(メタデータ) (2021-09-24T18:02:49Z) - Generative Flows with Invertible Attentions [135.23766216657745]
生成フローモデルに対する2種類の非可逆的注意機構を導入する。
フロー特徴写像の2分割毎に注意重みと入力表現を学習するために,分割に基づく注意機構を利用する。
提案手法は, トラクタブルジャコビアン行列を用いた非可逆アテンションモジュールをフローベースモデルの任意の位置にシームレスに統合する。
論文 参考訳(メタデータ) (2021-06-07T20:43:04Z) - Refining Deep Generative Models via Discriminator Gradient Flow [18.406499703293566]
判別器グラディエントフロー (DGflow) は, エントロピー規則化されたf-ディバージェンスの勾配流を介して生成したサンプルを改善する新しい手法である。
DGflowは, 様々な生成モデルに対して, 生成したサンプルの品質を著しく向上させることを示す。
論文 参考訳(メタデータ) (2020-12-01T19:10:15Z) - SurVAE Flows: Surjections to Bridge the Gap between VAEs and Flows [78.77808270452974]
SurVAE Flowsは、VAEと正規化フローを含む構成可能な変換のためのモジュラーフレームワークである。
提案手法は,SurVAE フローとして表現できることが示唆された。
論文 参考訳(メタデータ) (2020-07-06T13:13:22Z) - Gaussianization Flows [113.79542218282282]
そこで本研究では,サンプル生成における効率のよい繰り返しと効率のよい逆変換を両立できる新しい型正規化フローモデルを提案する。
この保証された表現性のため、サンプル生成の効率を損なうことなく、マルチモーダルなターゲット分布をキャプチャできる。
論文 参考訳(メタデータ) (2020-03-04T08:15:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。