論文の概要: Explicitly Minimizing the Blur Error of Variational Autoencoders
- arxiv url: http://arxiv.org/abs/2304.05939v1
- Date: Wed, 12 Apr 2023 16:03:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 14:24:07.057947
- Title: Explicitly Minimizing the Blur Error of Variational Autoencoders
- Title(参考訳): 変分オートエンコーダのブラスト誤差を極小化する
- Authors: Gustav Bredell, Kyriakos Flouris, Krishna Chaitanya, Ertunc Erdil,
Ender Konukoglu
- Abstract要約: 変分オートエンコーダ(VAE)は強力な生成モデリング手法である。
VAEは、訓練された画像と比較してぼやけたサンプルや復元に苦しむ。
本稿では,ぼやけた画像の生成を特に罰するVOEの再構成項の新たな定式化を提案する。
- 参考スコア(独自算出の注目度): 7.902207366910121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational autoencoders (VAEs) are powerful generative modelling methods,
however they suffer from blurry generated samples and reconstructions compared
to the images they have been trained on. Significant research effort has been
spent to increase the generative capabilities by creating more flexible models
but often flexibility comes at the cost of higher complexity and computational
cost. Several works have focused on altering the reconstruction term of the
evidence lower bound (ELBO), however, often at the expense of losing the
mathematical link to maximizing the likelihood of the samples under the modeled
distribution. Here we propose a new formulation of the reconstruction term for
the VAE that specifically penalizes the generation of blurry images while at
the same time still maximizing the ELBO under the modeled distribution. We show
the potential of the proposed loss on three different data sets, where it
outperforms several recently proposed reconstruction losses for VAEs.
- Abstract(参考訳): 可変オートエンコーダ(VAE)は強力な生成モデリング手法であるが、訓練された画像と比較してぼやけた生成サンプルや再構成に悩まされている。
よりフレキシブルなモデルを作成することで生成能力を高めるために、重要な研究努力が費やされてきたが、しばしば柔軟性はより複雑で計算コストがかかる。
いくつかの研究は、エビデンス・ロー・バウンド(ELBO)の再構築期間を変更することに重点を置いているが、しばしば、モデル化された分布の下でサンプルの可能性を最大化するために数学的リンクを失うことに費やされている。
本稿では,モデル分布下でのelboの最大化と同時に,ぼやけた画像の生成を特異的にペナライズするvaeの再構成用語の新たな定式化を提案する。
提案する3つの異なるデータセットにおける損失の可能性を示し,最近提案されたvaesの再構成損失を上回っている。
関連論文リスト
- Fine-Tuning of Continuous-Time Diffusion Models as Entropy-Regularized
Control [54.132297393662654]
拡散モデルは、自然画像やタンパク質のような複雑なデータ分布を捉えるのに優れている。
拡散モデルはトレーニングデータセットの分布を表現するために訓練されるが、私たちはしばしば、生成された画像の美的品質など他の特性にもっと関心を持っている。
本稿では,本フレームワークが真に報酬の高い多種多様なサンプルを効率よく生成できることを示す理論的,実証的な証拠を示す。
論文 参考訳(メタデータ) (2024-02-23T08:54:42Z) - Variational Bayes image restoration with compressive autoencoders [5.514022022280169]
逆問題の正規化は、計算イメージングにおいて最重要となる。
最先端のプラグアンドプレイ法は、ニューラルデノイザによって提供される暗黙の正規化に依存している。
本稿では,潜時推定を行う変分ベイズ潜時推定(VBLE)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-29T15:49:31Z) - Neural Diffusion Models [2.447795279790662]
本稿では,データの時間依存非線形変換の定義と学習を可能にする,従来の拡散モデルの一般化について述べる。
NDMは、可能性の観点から従来の拡散モデルより優れ、高品質なサンプルを生成する。
論文 参考訳(メタデータ) (2023-10-12T13:54:55Z) - BOOT: Data-free Distillation of Denoising Diffusion Models with
Bootstrapping [64.54271680071373]
拡散モデルは多様な画像を生成する優れた可能性を示している。
知識蒸留は、推論ステップの数を1つか数に減らすための治療法として最近提案されている。
本稿では,効率的なデータフリー蒸留アルゴリズムにより限界を克服するBOOTと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T20:30:55Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Universal Generative Modeling in Dual-domain for Dynamic MR Imaging [22.915796840971396]
我々は,高度にアンダーサンプリングされた測定値の再構成を行うために,k-spaceとDu-al-Domainコラボレーティブユニバーサル生成モデル(DD-UGM)を提案する。
より正確には、画像領域とk空間領域の両方の先行成分を普遍的な生成モデルで抽出し、これらの先行成分を適応的に処理し、より高速に処理する。
論文 参考訳(メタデータ) (2022-12-15T03:04:48Z) - Dynamic Dual-Output Diffusion Models [100.32273175423146]
反復分解に基づく生成は、他の生成モデルのクラスに匹敵する品質を示すことが示されている。
この方法の大きな欠点は、競合する結果を生み出すために数百のイテレーションが必要であることである。
近年の研究では、より少ないイテレーションでより高速に生成できるソリューションが提案されているが、画像の品質は徐々に低下している。
論文 参考訳(メタデータ) (2022-03-08T11:20:40Z) - Global Context with Discrete Diffusion in Vector Quantised Modelling for
Image Generation [19.156223720614186]
ベクトル量子変分オートエンコーダと自己回帰モデルとを生成部として統合することにより、画像生成における高品質な結果が得られる。
本稿では,VQ-VAEからのコンテンツリッチな離散視覚コードブックの助けを借りて,この離散拡散モデルにより,グローバルな文脈で高忠実度画像を生成することができることを示す。
論文 参考訳(メタデータ) (2021-12-03T09:09:34Z) - Variational Diffusion Models [33.0719137062396]
本稿では,画像密度推定ベンチマークの最先端可能性を求める拡散モデルについて紹介する。
差分下界 (VLB) は, 拡散したデータの信号対雑音比において, 著しく短い表現に単純化されることを示す。
論文 参考訳(メタデータ) (2021-07-01T17:43:20Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [55.28436972267793]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。