論文の概要: Understanding Deep Generative Models with Generalized Empirical
Likelihoods
- arxiv url: http://arxiv.org/abs/2306.09780v1
- Date: Fri, 16 Jun 2023 11:33:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 14:11:18.509761
- Title: Understanding Deep Generative Models with Generalized Empirical
Likelihoods
- Title(参考訳): 一般化経験的類型を用いた深部生成モデルの理解
- Authors: Suman Ravuri, M\'elanie Rey, Shakir Mohamed, Marc Deisenroth
- Abstract要約: そこで本研究では,最大平均離散性と一般化経験的類似性(Generalized Empirical Likelihood)の技術を組み合わせて,サンプルごとの解釈可能性を維持する分布テストを作成する方法について述べる。
このようなテストでは、精度/リコールの改善などの指標よりも、モード低下やモード不均衡の度合いが最大60%向上していることが判明した。
- 参考スコア(独自算出の注目度): 3.7978679293562587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding how well a deep generative model captures a distribution of
high-dimensional data remains an important open challenge. It is especially
difficult for certain model classes, such as Generative Adversarial Networks
and Diffusion Models, whose models do not admit exact likelihoods. In this
work, we demonstrate that generalized empirical likelihood (GEL) methods offer
a family of diagnostic tools that can identify many deficiencies of deep
generative models (DGMs). We show, with appropriate specification of moment
conditions, that the proposed method can identify which modes have been
dropped, the degree to which DGMs are mode imbalanced, and whether DGMs
sufficiently capture intra-class diversity. We show how to combine techniques
from Maximum Mean Discrepancy and Generalized Empirical Likelihood to create
not only distribution tests that retain per-sample interpretability, but also
metrics that include label information. We find that such tests predict the
degree of mode dropping and mode imbalance up to 60% better than metrics such
as improved precision/recall.
- Abstract(参考訳): 深層生成モデルが高次元データの分布をいかにうまく捉えるかを理解することは、まだ重要な課題である。
生成的敵対的ネットワークや拡散モデルのような特定のモデルクラスでは特に困難であり、そのモデルは正確な可能性を認めない。
本研究では,一般化経験的可能性 (GEL) 法が深部生成モデル (DGM) の多くの欠陥を識別できる診断ツール群を提供することを示した。
モーメント条件の適切な仕様により,提案手法はどのモードがドロップされたか,DGMがモード不均衡である程度,およびDGMがクラス内多様性を十分に捉えているか否かを識別できることを示す。
本稿では,最大平均不一致と一般化された経験的確率による手法を組み合わせて,サンプル毎の解釈可能性を保持する分布テストだけでなく,ラベル情報を含むメトリクスを作成する方法を示す。
このようなテストでは、精度/リコールの改善などの指標よりも、モード低下やモード不均衡の度合いが最大60%向上することがわかった。
関連論文リスト
- Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Towards a Theoretical Understanding of Memorization in Diffusion Models [76.85077961718875]
拡散確率モデル(DPM)は、生成人工知能(GenAI)の主流モデルとして採用されている。
モデル収束を前提とした条件付きおよび非条件付きDPMにおける記憶の理論的理解を提供する。
本研究では、生成されたデータに基づいて訓練された時間依存型分類器を代理条件として利用し、無条件DPMからトレーニングデータを抽出する、textbfSurrogate condItional Data extract (SIDE) という新しいデータ抽出手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T13:17:06Z) - Double Gradient Reversal Network for Single-Source Domain Generalization in Multi-mode Fault Diagnosis [1.9389881806157316]
未確認モード障害診断のための単一モードデータからのドメイン不変のフォールト特徴が課題となる。
既存の方法は、ジェネレータモジュールを使用して、目に見えないモードのサンプルをシミュレートする。
二重勾配反転ネットワーク(DGRN)は、目に見えないモードで高い分類精度を実現するために提案される。
論文 参考訳(メタデータ) (2024-07-19T02:06:41Z) - Deep Generative Models through the Lens of the Manifold Hypothesis: A Survey and New Connections [15.191007332508198]
本研究では,低内在次元のデータモデリングにおいて,高周囲次元の確率の数値的不安定性は避けられないことを示す。
次に、オートエンコーダの学習表現上のDGMは、ワッサーシュタイン距離をほぼ最小化するものとして解釈できることを示す。
論文 参考訳(メタデータ) (2024-04-03T18:00:00Z) - Toward the Identifiability of Comparative Deep Generative Models [7.5479347719819865]
比較深部生成モデル(DGM)における識別可能性の理論を提案する。
これらのモデルは、一般的な混合関数のクラスにおいて識別性に欠けるが、混合関数が断片的アフィンであるときに驚くほど識別可能であることを示す。
また, モデルミス種別の影響についても検討し, 従来提案されていた比較DGMの正則化手法が, 潜伏変数の数が事前に分かっていない場合に, 識別可能性を高めることを実証的に示す。
論文 参考訳(メタデータ) (2024-01-29T06:10:54Z) - Learning Invariant Molecular Representation in Latent Discrete Space [52.13724532622099]
本稿では,分散シフトに対する不変性とロバスト性を示す分子表現を学習するための新しい枠組みを提案する。
我々のモデルは、様々な分布シフトが存在する場合に、最先端のベースラインに対してより強力な一般化を実現する。
論文 参考訳(メタデータ) (2023-10-22T04:06:44Z) - Open Set Recognition with Conditional Probabilistic Generative Models [51.40872765917125]
オープンセット認識のための条件付き確率生成モデル(CPGM)を提案する。
CPGMは未知のサンプルを検出できるが、異なる潜在特徴を条件付きガウス分布に近似させることで、既知のクラスを分類できる。
複数のベンチマークデータセットの実験結果から,提案手法がベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2020-08-12T06:23:49Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z) - SUOD: Accelerating Large-Scale Unsupervised Heterogeneous Outlier
Detection [63.253850875265115]
外乱検出(OD)は、一般的なサンプルから異常物体を識別するための機械学習(ML)タスクである。
そこで我々は,SUODと呼ばれるモジュール型加速度システムを提案する。
論文 参考訳(メタデータ) (2020-03-11T00:22:50Z) - Towards Out-of-Distribution Detection with Divergence Guarantee in Deep
Generative Models [22.697643259435115]
深層生成モデルは、分布外データ(OOD)に対して、分布内データ(ID)よりも高い確率を割り当てることができる。
フローベースモデルにおける散逸を解析するための定理を証明している。
本稿では,2つのグループ異常検出手法を提案する。
論文 参考訳(メタデータ) (2020-02-09T09:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。