論文の概要: Improving Conditional VAE with approximation using Normalizing Flows
- arxiv url: http://arxiv.org/abs/2511.08946v2
- Date: Fri, 14 Nov 2025 01:19:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 13:23:30.716541
- Title: Improving Conditional VAE with approximation using Normalizing Flows
- Title(参考訳): 正規化流れを用いた近似による条件付きVAEの改善
- Authors: Tuhin Subhra De,
- Abstract要約: 変分オートエンコーダと生成逆数ネットワークは2022年までSOTA(State-of-the-art)生成モデルのままであった。
その結果、従来のモデルを改善する努力は停滞した。
従来の方法では,条件付き変分オートエンコーダ(CVAE)を用いた画像生成を探索し,画像に所望の属性を組み込む。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Variational Autoencoders and Generative Adversarial Networks remained the state-of-the-art (SOTA) generative models until 2022. Now they are superseded by diffusion based models. Efforts to improve traditional models have stagnated as a result. In old-school fashion, we explore image generation with conditional Variational Autoencoders (CVAE) to incorporate desired attributes within the images. VAEs are known to produce blurry images with less diversity, we refer a method that solve this issue by leveraging the variance of the gaussian decoder as a learnable parameter during training. Previous works on CVAEs assumed that the conditional distribution of the latent space given the labels is equal to the prior distribution, which is not the case in reality. We show that estimating it using normalizing flows results in better image generation than existing methods by reducing the FID by 5% and increasing log likelihood by 7.7% than the previous case.
- Abstract(参考訳): 変分オートエンコーダと生成逆数ネットワークは2022年までSOTA(State-of-the-art)生成モデルのままであった。
現在は拡散モデルに取って代わられている。
その結果、従来のモデルを改善する努力は停滞した。
従来の方法では,条件付き変分オートエンコーダ(CVAE)を用いた画像生成を探索し,画像に所望の属性を組み込む。
VAEは、多様性の低いぼやけた画像を生成することで知られており、ガウスデコーダの分散を学習可能なパラメータとして活用することで、この問題を解決している。
CVAEの以前の研究は、ラベルが与えられた潜在空間の条件分布は以前の分布と等しいと仮定していたが、実際にはそうではない。
正規化フローを用いて推定すると、FIDを5%削減し、ログ確率を7.7%増加させることにより、既存の手法よりも画像生成性が向上することを示す。
関連論文リスト
- Fine-Tuning Diffusion Models via Intermediate Distribution Shaping [33.26998978897412]
政策勾配法は自己回帰生成の文脈で広く用いられている。
我々は,GRAFTが暗黙的にリフォーム報酬でPPOを行うことを示す。
次に、P-GRAFTを導入し、中間雑音レベルで分布を形作る。
そこで我々は,明示的な報奨を生かさずに,フローモデルを改善する逆ノイズ補正を提案する。
論文 参考訳(メタデータ) (2025-10-03T03:18:47Z) - Bayesian generative models can flag performance loss, bias, and out-of-distribution image content [15.835055687646507]
生成モデルは、異常検出、特徴抽出、データの可視化、画像生成などの医療画像タスクに人気がある。
ディープラーニングモデルによってパラメータ化されているため、分散シフトに敏感であり、アウト・オブ・ディストリビューションデータに適用しても信頼できないことが多い。
我々は,インク,定規,パッチなどの分布外画像コンテンツを検出する画素ワイド不確実性を示す。
論文 参考訳(メタデータ) (2025-03-21T18:45:28Z) - One-for-More: Continual Diffusion Model for Anomaly Detection [63.50488826645681]
異常検出法は拡散モデルを用いて任意の異常画像が与えられたときの正常サンプルの生成または再構成を行う。
われわれは,拡散モデルが「重度忠実幻覚」と「破滅的な忘れ」に悩まされていることを発見した。
本研究では,安定な連続学習を実現するために勾配予測を用いた連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2025-02-27T07:47:27Z) - Model Integrity when Unlearning with T2I Diffusion Models [11.321968363411145]
「忘れ分布からのサンプルを特徴とする特定種類の画像の生成を減らすために、近似機械学習アルゴリズムを提案する。」
次に、既存のベースラインと比較してモデルの整合性を保つ上で優れた効果を示す未学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-04T13:15:28Z) - Fast constrained sampling in pre-trained diffusion models [80.99262780028015]
任意の制約下で高速で高品質な生成を可能にするアルゴリズムを提案する。
我々の手法は、最先端のトレーニングフリー推論手法に匹敵するか、超越した結果をもたらす。
論文 参考訳(メタデータ) (2024-10-24T14:52:38Z) - A Contrastive Learning Approach for Training Variational Autoencoder
Priors [137.62674958536712]
変分オートエンコーダ(VAE)は、多くの領域で応用される強力な可能性に基づく生成モデルの一つである。
VAEsが生成性に乏しいことの1つの説明は、事前の分布が集合の近似的な後部と一致しないという、事前の穴の問題である。
本研究では, 基底分布の積と再重み付け係数によって定義されるエネルギーベースの事前定義を行い, 基底を集合体後部へ近づけるようにした。
論文 参考訳(メタデータ) (2020-10-06T17:59:02Z) - NVAE: A Deep Hierarchical Variational Autoencoder [102.29977384039805]
本稿では,深度ワイド分離可能な畳み込みとバッチ正規化を用いた画像生成のための階層型VAEを提案する。
NVAEは非自己回帰的確率ベースモデルにおいて最先端の結果が得られることを示す。
我々の知る限りでは、NVAEは256$times $256ピクセルの自然画像に適用された最初のVAEである。
論文 参考訳(メタデータ) (2020-07-08T04:56:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。