論文の概要: Wavelet Flow: Fast Training of High Resolution Normalizing Flows
- arxiv url: http://arxiv.org/abs/2010.13821v1
- Date: Mon, 26 Oct 2020 18:13:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 18:20:57.132498
- Title: Wavelet Flow: Fast Training of High Resolution Normalizing Flows
- Title(参考訳): ウェーブレットフロー:高分解能正規化流れの高速訓練
- Authors: Jason J. Yu, Konstantinos G. Derpanis, Marcus A. Brubaker
- Abstract要約: 本稿では,ウェーブレットに基づくマルチスケール正規化フローアーキテクチャであるWavelet Flowを紹介する。
Wavelet Flowの大きな利点は、以前のモデルでは実現不可能な高解像度データの生成モデルを構築することができることである。
- 参考スコア(独自算出の注目度): 27.661467862732792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Normalizing flows are a class of probabilistic generative models which allow
for both fast density computation and efficient sampling and are effective at
modelling complex distributions like images. A drawback among current methods
is their significant training cost, sometimes requiring months of GPU training
time to achieve state-of-the-art results. This paper introduces Wavelet Flow, a
multi-scale, normalizing flow architecture based on wavelets. A Wavelet Flow
has an explicit representation of signal scale that inherently includes models
of lower resolution signals and conditional generation of higher resolution
signals, i.e., super resolution. A major advantage of Wavelet Flow is the
ability to construct generative models for high resolution data (e.g., 1024 x
1024 images) that are impractical with previous models. Furthermore, Wavelet
Flow is competitive with previous normalizing flows in terms of bits per
dimension on standard (low resolution) benchmarks while being up to 15x faster
to train.
- Abstract(参考訳): 正規化フローは、高速密度計算と効率的なサンプリングの両方を可能にし、画像のような複雑な分布のモデリングに有効である確率的生成モデルの一種である。
現在の方法の欠点は、トレーニングコストの大幅な向上であり、最新の結果を得るためには、数ヶ月のgpuトレーニング時間を要する場合もある。
本稿では,ウェーブレットに基づくマルチスケール正規化フローアーキテクチャであるWavelet Flowを紹介する。
ウェーブレットフローは信号スケールの明示的な表現を持ち、これは本質的には低解像度信号のモデルと高解像度信号、すなわち超解像度信号の条件生成を含む。
ウェーブレットフローの大きな利点は、以前のモデルと非現実的な高解像度データ(例えば、1024 x 1024画像)の生成モデルを構築する能力である。
さらに、Wavelet Flowは、標準(低解像度)ベンチマークで1次元当たりのビット数で従来の正規化フローと競合する一方で、トレーニングの最大15倍高速である。
関連論文リスト
- Make-A-Shape: a Ten-Million-scale 3D Shape Model [55.34451258972251]
本稿では,大規模な効率的なトレーニングを目的とした新しい3次元生成モデルであるMake-A-Shapeを紹介する。
まずウェーブレットツリー表現を革新し、サブバンド係数フィルタリングスキームを定式化して形状をコンパクトに符号化する。
我々は、粗いウェーブレット係数の生成を効果的に学習するために、我々のモデルを訓練するためのサブバンド適応型トレーニング戦略を導出する。
論文 参考訳(メタデータ) (2024-01-20T00:21:58Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - Wavelet Diffusion Models are fast and scalable Image Generators [3.222802562733787]
拡散モデルは高忠実度画像生成のための強力な解であり、多くの状況においてGANを超える。
最近のDiffusionGAN法は、サンプリングステップの数を数千から数に減らして、モデルの実行時間を著しく短縮するが、その速度はGANよりもかなり遅れている。
本稿では,新しいウェーブレット拡散方式を提案することにより,速度ギャップを低減することを目的とする。
我々は、ウェーブレット分解により、画像と特徴レベルの両方から低周波数成分を抽出し、これらの成分を適応的に処理し、良好な生成品質を維持しながら高速に処理する。
論文 参考訳(メタデータ) (2022-11-29T12:25:25Z) - Fast Sampling of Diffusion Models via Operator Learning [74.37531458470086]
我々は,拡散モデルのサンプリング過程を高速化するために,確率フロー微分方程式の効率的な解法であるニューラル演算子を用いる。
シーケンシャルな性質を持つ他の高速サンプリング手法と比較して、並列復号法を最初に提案する。
本稿では,CIFAR-10では3.78、ImageNet-64では7.83の最先端FIDを1モデル評価環境で達成することを示す。
論文 参考訳(メタデータ) (2022-11-24T07:30:27Z) - GMFlow: Learning Optical Flow via Global Matching [124.57850500778277]
光フロー推定学習のためのGMFlowフレームワークを提案する。
機能拡張のためのカスタマイズトランスフォーマー、グローバル機能マッチングのための相関層とソフトマックス層、フロー伝搬のための自己保持層である。
我々の新しいフレームワークは、挑戦的なSintelベンチマークにおいて、32項目RAFTのパフォーマンスより優れています。
論文 参考訳(メタデータ) (2021-11-26T18:59:56Z) - Distilling the Knowledge from Normalizing Flows [22.578033953780697]
正規化フローは、複数の音声および視覚問題において強力な性能を示す生成モデルの強力なクラスである。
本稿では, 簡易蒸留法を提案し, 画像超解像と音声合成のための現状条件付きフローベースモデルの有効性を実証する。
論文 参考訳(メタデータ) (2021-06-24T00:10:22Z) - Learning Non-linear Wavelet Transformation via Normalizing Flow [0.0]
可逆変換は設計された正規化フローモデルによって学習することができる。
ウェーブレットダウンサンプリング機構に似たファクターアウトスキームにより、高速パターンに対応するファクターアウト変数に正規化フローモデルを訓練することができる。
低域/高域フィルタを用いた学習モデルの解析を行う。
論文 参考訳(メタデータ) (2021-01-27T10:28:51Z) - DeFlow: Learning Complex Image Degradations from Unpaired Data with
Conditional Flows [145.83812019515818]
本論文では,不対データから画像劣化を学習するDeFlowを提案する。
共有フローデコーダネットワークの潜在空間における劣化過程をモデル化する。
共同画像復元と超解像におけるDeFlowの定式化を検証した。
論文 参考訳(メタデータ) (2021-01-14T18:58:01Z) - WaveNODE: A Continuous Normalizing Flow for Speech Synthesis [15.051929807285847]
本稿では,音声合成のための連続正規化フローを利用するWaveNODEと呼ばれる新しい生成モデルを提案する。
WaveNODEはフロー操作に使用する関数に制約を課さないため、より柔軟で複雑な関数を使用することができる。
本研究では,従来のフローベースボコーダに比べて少ないパラメータでウェーブヌードが同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-06-08T13:49:36Z) - Normalizing Flows with Multi-Scale Autoregressive Priors [131.895570212956]
マルチスケール自己回帰前処理(mAR)を通した遅延空間におけるチャネルワイド依存性を導入する。
我々のmARは、分割結合フロー層(mAR-SCF)を持つモデルに先立って、複雑なマルチモーダルデータの依存関係をよりよく捉えます。
我々は,mAR-SCFにより画像生成品質が向上し,FIDとインセプションのスコアは最先端のフローベースモデルと比較して向上したことを示す。
論文 参考訳(メタデータ) (2020-04-08T09:07:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。