論文の概要: Explicitly Minimizing the Blur Error of Variational Autoencoders
- arxiv url: http://arxiv.org/abs/2304.05939v1
- Date: Wed, 12 Apr 2023 16:03:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 14:24:07.057947
- Title: Explicitly Minimizing the Blur Error of Variational Autoencoders
- Title(参考訳): 変分オートエンコーダのブラスト誤差を極小化する
- Authors: Gustav Bredell, Kyriakos Flouris, Krishna Chaitanya, Ertunc Erdil,
Ender Konukoglu
- Abstract要約: 変分オートエンコーダ(VAE)は強力な生成モデリング手法である。
VAEは、訓練された画像と比較してぼやけたサンプルや復元に苦しむ。
本稿では,ぼやけた画像の生成を特に罰するVOEの再構成項の新たな定式化を提案する。
- 参考スコア(独自算出の注目度): 7.902207366910121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational autoencoders (VAEs) are powerful generative modelling methods,
however they suffer from blurry generated samples and reconstructions compared
to the images they have been trained on. Significant research effort has been
spent to increase the generative capabilities by creating more flexible models
but often flexibility comes at the cost of higher complexity and computational
cost. Several works have focused on altering the reconstruction term of the
evidence lower bound (ELBO), however, often at the expense of losing the
mathematical link to maximizing the likelihood of the samples under the modeled
distribution. Here we propose a new formulation of the reconstruction term for
the VAE that specifically penalizes the generation of blurry images while at
the same time still maximizing the ELBO under the modeled distribution. We show
the potential of the proposed loss on three different data sets, where it
outperforms several recently proposed reconstruction losses for VAEs.
- Abstract(参考訳): 可変オートエンコーダ(VAE)は強力な生成モデリング手法であるが、訓練された画像と比較してぼやけた生成サンプルや再構成に悩まされている。
よりフレキシブルなモデルを作成することで生成能力を高めるために、重要な研究努力が費やされてきたが、しばしば柔軟性はより複雑で計算コストがかかる。
いくつかの研究は、エビデンス・ロー・バウンド(ELBO)の再構築期間を変更することに重点を置いているが、しばしば、モデル化された分布の下でサンプルの可能性を最大化するために数学的リンクを失うことに費やされている。
本稿では,モデル分布下でのelboの最大化と同時に,ぼやけた画像の生成を特異的にペナライズするvaeの再構成用語の新たな定式化を提案する。
提案する3つの異なるデータセットにおける損失の可能性を示し,最近提案されたvaesの再構成損失を上回っている。
関連論文リスト
- Advancing Diffusion Models: Alias-Free Resampling and Enhanced Rotational Equivariance [0.0]
拡散モデルは、モデルによって引き起こされたアーティファクトと、画像の忠実性に制限された安定性によって、依然として挑戦されている。
拡散モデルのUNetアーキテクチャにエイリアスフリー再サンプリング層を統合することを提案する。
CIFAR-10, MNIST, MNIST-Mなどのベンチマークデータを用いた実験の結果, 画像品質が一貫した向上を示した。
論文 参考訳(メタデータ) (2024-11-14T04:23:28Z) - Model Integrity when Unlearning with T2I Diffusion Models [11.321968363411145]
「忘れ分布からのサンプルを特徴とする特定種類の画像の生成を減らすために、近似機械学習アルゴリズムを提案する。」
次に、既存のベースラインと比較してモデルの整合性を保つ上で優れた効果を示す未学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-04T13:15:28Z) - Tuning Timestep-Distilled Diffusion Model Using Pairwise Sample Optimization [97.35427957922714]
任意の時間ステップ蒸留拡散モデルを直接微調整できるPSOアルゴリズムを提案する。
PSOは、現在の時間ステップ蒸留モデルからサンプリングされた追加の参照画像を導入し、トレーニング画像と参照画像との相対的な近縁率を増大させる。
PSOは、オフラインとオンラインのペアワイズ画像データの両方を用いて、蒸留モデルを直接人間の好ましくない世代に適応させることができることを示す。
論文 参考訳(メタデータ) (2024-10-04T07:05:16Z) - Fine-Tuning of Continuous-Time Diffusion Models as Entropy-Regularized
Control [54.132297393662654]
拡散モデルは、自然画像やタンパク質のような複雑なデータ分布を捉えるのに優れている。
拡散モデルはトレーニングデータセットの分布を表現するために訓練されるが、私たちはしばしば、生成された画像の美的品質など他の特性にもっと関心を持っている。
本稿では,本フレームワークが真に報酬の高い多種多様なサンプルを効率よく生成できることを示す理論的,実証的な証拠を示す。
論文 参考訳(メタデータ) (2024-02-23T08:54:42Z) - Variational Bayes image restoration with compressive autoencoders [4.879530644978008]
逆問題の正規化は、計算イメージングにおいて最重要となる。
本研究では,まず,最先端生成モデルの代わりに圧縮型オートエンコーダを提案する。
第2の貢献として、変分ベイズ潜時推定(VBLE)アルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-11-29T15:49:31Z) - Neural Diffusion Models [2.1779479916071067]
本稿では,データの時間依存非線形変換の定義と学習を可能にする,従来の拡散モデルの一般化について述べる。
NDMは、可能性の観点から従来の拡散モデルより優れ、高品質なサンプルを生成する。
論文 参考訳(メタデータ) (2023-10-12T13:54:55Z) - Steerable Conditional Diffusion for Out-of-Distribution Adaptation in Medical Image Reconstruction [75.91471250967703]
我々は、ステアブル条件拡散と呼ばれる新しいサンプリングフレームワークを導入する。
このフレームワークは、利用可能な測定によって提供される情報のみに基づいて、画像再構成と並行して拡散モデルを適用する。
様々な画像モダリティにまたがるアウト・オブ・ディストリビューション性能の大幅な向上を実現した。
論文 参考訳(メタデータ) (2023-08-28T08:47:06Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Universal Generative Modeling in Dual-domain for Dynamic MR Imaging [22.915796840971396]
我々は,高度にアンダーサンプリングされた測定値の再構成を行うために,k-spaceとDu-al-Domainコラボレーティブユニバーサル生成モデル(DD-UGM)を提案する。
より正確には、画像領域とk空間領域の両方の先行成分を普遍的な生成モデルで抽出し、これらの先行成分を適応的に処理し、より高速に処理する。
論文 参考訳(メタデータ) (2022-12-15T03:04:48Z) - Dynamic Dual-Output Diffusion Models [100.32273175423146]
反復分解に基づく生成は、他の生成モデルのクラスに匹敵する品質を示すことが示されている。
この方法の大きな欠点は、競合する結果を生み出すために数百のイテレーションが必要であることである。
近年の研究では、より少ないイテレーションでより高速に生成できるソリューションが提案されているが、画像の品質は徐々に低下している。
論文 参考訳(メタデータ) (2022-03-08T11:20:40Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。