論文の概要: Variational Autoencoders with Normalizing Flow Decoders
- arxiv url: http://arxiv.org/abs/2004.05617v1
- Date: Sun, 12 Apr 2020 14:11:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 05:04:11.611156
- Title: Variational Autoencoders with Normalizing Flow Decoders
- Title(参考訳): フローデコーダの正規化による変分オートエンコーダ
- Authors: Rogan Morrow, Wei-Chen Chiu
- Abstract要約: この問題に対処するために,Glow と基礎となる変分オートエンコーダを組み合わせることを提案する。
我々は,提案モデルがGlowと画像品質とテスト可能性の面で競合する一方で,トレーニングに要する時間もはるかに少ないことを実証した。
- 参考スコア(独自算出の注目度): 22.289830907729705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently proposed normalizing flow models such as Glow have been shown to be
able to generate high quality, high dimensional images with relatively fast
sampling speed. Due to their inherently restrictive architecture, however, it
is necessary that they are excessively deep in order to train effectively. In
this paper we propose to combine Glow with an underlying variational
autoencoder in order to counteract this issue. We demonstrate that our proposed
model is competitive with Glow in terms of image quality and test likelihood
while requiring far less time for training.
- Abstract(参考訳): 近年,グローなどのノーマライズフローモデルが,比較的高速なサンプリング速度で高品質な高次元画像を生成することが提案されている。
しかし、本質的に制限的な建築であるため、効果的に訓練するには過度に深くなる必要がある。
本稿では,Glowと基礎となる変分オートエンコーダを組み合わせることで,この問題に対処することを提案する。
提案モデルは画像品質とテスト可能性の面ではglowと競合するが,トレーニングに要する時間がはるかに少ないことを実証する。
関連論文リスト
- FrameNeRF: A Simple and Efficient Framework for Few-shot Novel View
Synthesis [25.356376402671536]
FrameNeRFは、高速なトレーニング速度と高速なレンダリング品質を備えた市販の高速高忠実度NeRFモデルを、数発の新規ビュー合成タスクに適用するように設計されている。
論文 参考訳(メタデータ) (2024-02-22T14:41:02Z) - DiffiT: Diffusion Vision Transformers for Image Generation [94.50195596375316]
Diffusion Vision Transformers (DiffiT) はU字型エンコーダとデコーダを備えたハイブリッド階層アーキテクチャである。
DiffiTは、高忠実度画像を生成するのに驚くほど効果的です。
潜在領域では、DiffiTはImageNet-256データセットで1.73の新しいSOTA FIDスコアを達成している。
論文 参考訳(メタデータ) (2023-12-04T18:57:01Z) - CoDi: Conditional Diffusion Distillation for Higher-Fidelity and Faster
Image Generation [49.3016007471979]
大規模な生成拡散モデルは、テキスト・ツー・イメージ生成に革命をもたらし、条件付き生成タスクに大きな可能性を秘めている。
しかし、彼らの普及は高い計算コストによって妨げられ、リアルタイムの応用が制限される。
本稿では,事前学習した潜伏拡散モデルに付加的な画像条件入力を適応させるCoDiという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T17:59:18Z) - StyleInV: A Temporal Style Modulated Inversion Network for Unconditional
Video Generation [73.54398908446906]
本稿では,GANのための学習型反転ネットワークを用いた新しいモーションジェネレータの設計を提案する。
本手法は,既訓練のStyleGANジェネレータとエンコーダをペアにした場合に,簡単な微調整でスタイル転送をサポートする。
論文 参考訳(メタデータ) (2023-08-31T17:59:33Z) - Conditional Generation from Unconditional Diffusion Models using
Denoiser Representations [94.04631421741986]
本稿では,学習したデノイザネットワークの内部表現を用いて,事前学習した非条件拡散モデルを新しい条件に適用することを提案する。
提案手法により生成した合成画像を用いたTiny ImageNetトレーニングセットの強化により,ResNetベースラインの分類精度が最大8%向上することを示す。
論文 参考訳(メタデータ) (2023-06-02T20:09:57Z) - Wavelet Diffusion Models are fast and scalable Image Generators [3.222802562733787]
拡散モデルは高忠実度画像生成のための強力な解であり、多くの状況においてGANを超える。
最近のDiffusionGAN法は、サンプリングステップの数を数千から数に減らして、モデルの実行時間を著しく短縮するが、その速度はGANよりもかなり遅れている。
本稿では,新しいウェーブレット拡散方式を提案することにより,速度ギャップを低減することを目的とする。
我々は、ウェーブレット分解により、画像と特徴レベルの両方から低周波数成分を抽出し、これらの成分を適応的に処理し、良好な生成品質を維持しながら高速に処理する。
論文 参考訳(メタデータ) (2022-11-29T12:25:25Z) - Wiener Guided DIP for Unsupervised Blind Image Deconvolution [10.440495513371747]
ブラインド・デコンボリューション(英: Blind deconvolution)は、顕微鏡から天文学まで様々な分野で発生する不適切な問題である。
ディープラーニングアーキテクチャは、教師なしのブラインドデコンボリューション最適化中にイメージ生成として機能する。
本稿では,ワイナーデコンボリューションを用いて画像生成を最適化する手法を提案する。
論文 参考訳(メタデータ) (2021-12-19T22:19:13Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - LCA-Net: Light Convolutional Autoencoder for Image Dehazing [1.433758865948252]
画像のデハジングは、画像の視覚的魅力を改善するために、ヘイズによって生じる不整合ノイズを取り除くために重要な画像前処理タスクである。
提案する汎用モデルは,大気モデルに依存しない非常に軽量な畳み込みエンコーダ・デコーダネットワークを用いている。
このネットワークは、画像品質の面で最先端の手法に匹敵する、いくつかの標準データセットにおいて、より高速に最適なデハージング性能を達成する。
論文 参考訳(メタデータ) (2020-08-24T11:20:52Z) - Quantization Guided JPEG Artifact Correction [69.04777875711646]
我々はJPEGファイル量子化行列を用いたアーティファクト修正のための新しいアーキテクチャを開発した。
これにより、特定の品質設定のためにトレーニングされたモデルに対して、単一のモデルで最先端のパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2020-04-17T00:10:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。