論文の概要: Density-Informed VAE (DiVAE): Reliable Log-Prior Probability via Density Alignment Regularization
- arxiv url: http://arxiv.org/abs/2512.03928v1
- Date: Wed, 03 Dec 2025 16:27:23 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:08:07.492827
- Title: Density-Informed VAE (DiVAE): Reliable Log-Prior Probability via Density Alignment Regularization
- Title(参考訳): 密度インフォームドVAE(DiVAE):密度アライメント正規化による信頼性対数パラメータ確率
- Authors: Michele Alessi, Alessio Ansuini, Alex Rodriguez,
- Abstract要約: DiVAEは軽量でデータ駆動の正規化器で、VAEのログプライア確率$log p_Z(z)$とデータから推定されるログ密度を一致させる。
MNISTでは、DiVAEは、事前の密度の外部推定値との整合性を改善し、より優れた解釈可能性を提供し、学習可能な事前のOOD検出を改善する。
- 参考スコア(独自算出の注目度): 3.8397427914728426
- License:
- Abstract: We introduce Density-Informed VAE (DiVAE), a lightweight, data-driven regularizer that aligns the VAE log-prior probability $\log p_Z(z)$ with a log-density estimated from data. Standard VAEs match latents to a simple prior, overlooking density structure in the data-space. DiVAE encourages the encoder to allocate posterior mass in proportion to data-space density and, when the prior is learnable, nudges the prior toward high-density regions. This is realized by adding a robust, precision-weighted penalty to the ELBO, incurring negligible computational overhead. On synthetic datasets, DiVAE (i) improves distributional alignment of latent log-densities to its ground truth counterpart, (ii) improves prior coverage, and (iii) yields better OOD uncertainty calibration. On MNIST, DiVAE improves alignment of the prior with external estimates of the density, providing better interpretability, and improves OOD detection for learnable priors.
- Abstract(参考訳): 本稿では,VAEのログプライア確率$\log p_Z(z)$をデータから推定したログ密度と整合する軽量なデータ駆動型正規化器であるDiVAEを紹介する。
標準のVAEは、データ空間の密度構造を見渡す単純な先行値と一致します。
DiVAEは、エンコーダがデータ空間密度に比例して後方の質量を割り当てることを奨励し、前者が学習可能であれば、前者が高密度領域へ誘導する。
これは、ELBOに頑健で精度の高いペナルティを加え、無視できる計算オーバーヘッドを発生させることによって実現される。
合成データセットDiVAEについて
(i)潜時対数密度の分布的アライメントを根本的真理に改善する。
(二)先行範囲を整備し、
(iii)OODの不確実性校正が向上する。
MNISTでは、DiVAEは、事前の密度の外部推定値との整合性を改善し、より優れた解釈可能性を提供し、学習可能な事前のOOD検出を改善する。
関連論文リスト
- EigenScore: OOD Detection using Covariance in Diffusion Models [23.642139552321794]
アウト・オブ・ディストリビューション(OOD)検出は、安全に敏感なドメインにおける機械学習システムの安全なデプロイに不可欠である。
拡散モデルにより誘導される後部共分散の固有値スペクトルを利用する新しいOOD検出法であるEigenScoreを提案する。
論文 参考訳(メタデータ) (2025-10-08T16:42:20Z) - Optimizing Latent Dimension Allocation in Hierarchical VAEs: Balancing Attenuation and Information Retention for OOD Detection [14.833454650943805]
階層的変分オートエンコーダ(HVAE)は、従来のVAEよりも優れた表現能力を提供する。
既存のアプローチはしばしば遅延容量を任意に割り当て、非効率な表現や後続の崩壊につながる。
本稿では,HVAEにおける潜在次元割り当てを最適化するための理論的基盤となるフレームワークを提案する。
固定遅延予算の下で最適な割り当て比$rast$の存在を証明し、この比率を調整することでOOD検出性能が一貫したことを示す。
論文 参考訳(メタデータ) (2025-06-11T18:16:19Z) - Improving OOD Generalization of Pre-trained Encoders via Aligned Embedding-Space Ensembles [8.229841337925267]
MNISTデータセットによる実験結果から,埋め込み空間のアンサンブル法は,単一エンコーダと比較して,分布内およびOODデータの事前学習による埋め込み品質を向上させることが示された。
論文 参考訳(メタデータ) (2024-11-20T06:50:50Z) - Improved Anomaly Detection through Conditional Latent Space VAE Ensembles [49.1574468325115]
条件付きラテント空間変分オートエンコーダ(CL-VAE)は、既知の不整形クラスと未知の不整形クラスを持つデータに対する異常検出のための前処理を改善した。
モデルでは異常検出の精度が向上し、MNISTデータセットで97.4%のAUCが達成された。
さらに、CL-VAEは、アンサンブルの利点、より解釈可能な潜在空間、モデルサイズに制限のある複雑なデータでパターンを学習する能力の増大を示す。
論文 参考訳(メタデータ) (2024-10-16T07:48:53Z) - Towards Efficient Vision-Language Tuning: More Information Density, More Generalizability [73.34532767873785]
本稿では,行列が特定の特徴空間に強く属しているかを示すために,情報密度(ID)の概念を提案する。
Dense Information Prompt (DIP)を導入し、情報密度を高め、一般化を改善する。
DIPは、調整可能なパラメータの数と必要なストレージスペースを大幅に減らし、リソース制約のある設定で特に有利になる。
論文 参考訳(メタデータ) (2023-12-17T20:42:43Z) - Exploring Covariate and Concept Shift for Detection and Calibration of
Out-of-Distribution Data [77.27338842609153]
キャラクタリゼーションにより、OODデータの検出と信頼性校正には、それぞれのシフトに対する感度が重要であることが明らかになった。
分布内データのみを用いて両シフトでのOOD検出を改善するために,幾何学的に着想を得た手法を提案する。
我々は,OOD検出とキャリブレーションの両面で,異なるタイプのシフトの下でうまく機能する手法を最初に提案する。
論文 参考訳(メタデータ) (2021-10-28T15:42:55Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Featurized Density Ratio Estimation [82.40706152910292]
本研究では,2つの分布を推定前の共通特徴空間にマッピングするために,可逆生成モデルを活用することを提案する。
この偉業化は、学習された入力空間の密度比が任意に不正確な場合、潜在空間において密度が密接な関係をもたらす。
同時に、特徴写像の可逆性は、特徴空間で計算された比が入力空間で計算された比と同値であることを保証する。
論文 参考訳(メタデータ) (2021-07-05T18:30:26Z) - Bigeminal Priors Variational auto-encoder [5.430048915427229]
変分自動エンコーダ(VAEs)は、教師なし学習における可能性に基づく生成モデルに影響を及ぼし、一般的に使用される。
本稿では,この現象に対処するための新しいモデル,すなわちBigeminal Priors Variational Auto-Encoder(BPVAE)を提案する。
BPVAEは2つのデータセットの特徴を学習し、単純なデータセットよりもトレーニングデータセットの可能性が高くなる。
論文 参考訳(メタデータ) (2020-10-05T07:10:52Z) - Nonparametric Density Estimation from Markov Chains [68.8204255655161]
我々はマルコフ・チェインにインスパイアされた新しい非パラメトリック密度推定器を導入し、よく知られたケルネル密度推定器を一般化する。
我々の推定器は, 通常のものに対していくつかの利点を示し, 全密度アルゴリズムの基盤として容易に利用できる。
論文 参考訳(メタデータ) (2020-09-08T18:33:42Z) - Detecting Out-of-distribution Samples via Variational Auto-encoder with
Reliable Uncertainty Estimation [5.430048915427229]
変分オートエンコーダ(VAE)は、豊かな表現能力を持つ影響のある生成モデルである。
VAEモデルは、アウト・オブ・ディストリビューション(OOD)インプットに対して、イン・ディストリビューション(ID)インプットよりも高い確率を割り当てる弱点がある。
本研究では,INCPVAEと呼ばれるVAEのエンコーダに統合可能な改良型ノイズコントラッシブ先行(INCP)を提案する。
論文 参考訳(メタデータ) (2020-07-16T06:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。