論文の概要: VFlow: More Expressive Generative Flows with Variational Data
Augmentation
- arxiv url: http://arxiv.org/abs/2002.09741v2
- Date: Wed, 22 Jul 2020 15:27:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 18:52:56.961400
- Title: VFlow: More Expressive Generative Flows with Variational Data
Augmentation
- Title(参考訳): VFlow: 変動データ拡張によるより表現豊かな生成フロー
- Authors: Jianfei Chen, Cheng Lu, Biqi Chenli, Jun Zhu, Tian Tian
- Abstract要約: トラクタビリティは生成フローにアーキテクチャ上の制約を課し、他の生成モデルよりも表現性が低い。
この制約に対処するために、いくつかの余分な次元でデータを拡大し、拡張データのための生成フローを共同で学習する。
我々のアプローチであるVFlowは、生成フローの一般化であり、従って常により良い性能を発揮する。
- 参考スコア(独自算出の注目度): 33.431861316434706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative flows are promising tractable models for density modeling that
define probabilistic distributions with invertible transformations. However,
tractability imposes architectural constraints on generative flows, making them
less expressive than other types of generative models. In this work, we study a
previously overlooked constraint that all the intermediate representations must
have the same dimensionality with the original data due to invertibility,
limiting the width of the network. We tackle this constraint by augmenting the
data with some extra dimensions and jointly learning a generative flow for
augmented data as well as the distribution of augmented dimensions under a
variational inference framework. Our approach, VFlow, is a generalization of
generative flows and therefore always performs better. Combining with existing
generative flows, VFlow achieves a new state-of-the-art 2.98 bits per dimension
on the CIFAR-10 dataset and is more compact than previous models to reach
similar modeling quality.
- Abstract(参考訳): 生成フローは、可逆変換を伴う確率分布を定義する密度モデリングのための有望な移動可能なモデルである。
しかし、トラクタビリティは生成フローにアーキテクチャ上の制約を課し、他の生成モデルよりも表現性が低い。
本研究では,すべての中間表現が可逆性により元のデータと同一次元でなければならないという従来見過ごされていた制約について検討し,ネットワークの幅を制限する。
この制約に対処するために、いくつかの余分な次元でデータを増大させ、拡張データのための生成フローを共同で学習し、また、変動推論フレームワークによる拡張次元の分布を学習する。
我々のアプローチであるVFlowは生成フローの一般化であり、従って常により良い性能を発揮する。
既存の生成フローと組み合わせて、vflowはcifar-10データセット上の1次元あたりの新たな最先端2.98ビットを実現し、同様のモデリング品質に達するために、以前のモデルよりもコンパクトである。
関連論文リスト
- Distribution-Aware Data Expansion with Diffusion Models [55.979857976023695]
本研究では,分散型拡散モデルに基づくトレーニングフリーなデータ拡張フレームワークであるDistDiffを提案する。
DistDiffは、オリジナルデータのみにトレーニングされたモデルと比較して、さまざまなデータセットの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2024-03-11T14:07:53Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - Generative Flows with Invertible Attentions [135.23766216657745]
生成フローモデルに対する2種類の非可逆的注意機構を導入する。
フロー特徴写像の2分割毎に注意重みと入力表現を学習するために,分割に基づく注意機構を利用する。
提案手法は, トラクタブルジャコビアン行列を用いた非可逆アテンションモジュールをフローベースモデルの任意の位置にシームレスに統合する。
論文 参考訳(メタデータ) (2021-06-07T20:43:04Z) - Variational Mixture of Normalizing Flows [0.0]
生成逆数ネットワークオートサイトGAN、変分オートエンコーダオートサイトベイペーパー、およびそれらの変種などの深い生成モデルは、複雑なデータ分布をモデル化するタスクに広く採用されている。
正規化フローはこの制限を克服し、確率密度関数にそのような公式の変更を利用する。
本研究は,混合モデルのコンポーネントとして正規化フローを用い,そのようなモデルのエンドツーエンドトレーニング手順を考案することによって,この問題を克服する。
論文 参考訳(メタデータ) (2020-09-01T17:20:08Z) - SurVAE Flows: Surjections to Bridge the Gap between VAEs and Flows [78.77808270452974]
SurVAE Flowsは、VAEと正規化フローを含む構成可能な変換のためのモジュラーフレームワークである。
提案手法は,SurVAE フローとして表現できることが示唆された。
論文 参考訳(メタデータ) (2020-07-06T13:13:22Z) - Normalizing Flows Across Dimensions [10.21537170623373]
我々は、次元をまたぐことができる正規化フローの一般化であるノイズ注入流(NIF)を導入する。
NIF は射影変換を用いて高次元データ空間内の学習可能な多様体にラテント空間を明示的にマッピングする。
実験により,本手法を既存のフローアーキテクチャに適用することにより,サンプルの品質を著しく向上し,分離可能なデータ埋め込みが得られることを示す。
論文 参考訳(メタデータ) (2020-06-23T14:47:18Z) - SoftFlow: Probabilistic Framework for Normalizing Flow on Manifolds [15.476426879806134]
フローベース生成モデルは、同じ次元の2つのランダム変数間の可逆変換からなる。
本論文では,多様体上の正規化フローを学習するための確率的フレームワークであるSoftFlowを提案する。
実験により,SoftFlowは多様体データの固有構造を捕捉し,高品質なサンプルを生成することができることを示した。
提案手法を3次元点雲に適用することにより,フローベースモデルにおける細い構造形成の難しさを軽減する。
論文 参考訳(メタデータ) (2020-06-08T13:56:07Z) - Normalizing Flows with Multi-Scale Autoregressive Priors [131.895570212956]
マルチスケール自己回帰前処理(mAR)を通した遅延空間におけるチャネルワイド依存性を導入する。
我々のmARは、分割結合フロー層(mAR-SCF)を持つモデルに先立って、複雑なマルチモーダルデータの依存関係をよりよく捉えます。
我々は,mAR-SCFにより画像生成品質が向上し,FIDとインセプションのスコアは最先端のフローベースモデルと比較して向上したことを示す。
論文 参考訳(メタデータ) (2020-04-08T09:07:11Z) - Closing the Dequantization Gap: PixelCNN as a Single-Layer Flow [16.41460104376002]
有限体積を変換し、離散データに対する確率の正確な計算を可能にするサブセットフローを導入する。
我々は、WaveNets、PixelCNNs、Transformersを含む通常の離散自己回帰モデルを単層フローとして識別する。
我々は, CIFAR-10 を用いて, 脱量子化を訓練した流れモデルについて, 実測結果を示す。
論文 参考訳(メタデータ) (2020-02-06T22:58:51Z) - Semi-Supervised Learning with Normalizing Flows [54.376602201489995]
FlowGMMは、フローの正規化を伴う生成半教師付き学習におけるエンドツーエンドのアプローチである。
我々は AG-News や Yahoo Answers のテキストデータなど,幅広いアプリケーションに対して有望な結果を示す。
論文 参考訳(メタデータ) (2019-12-30T17:36:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。