論文の概要: Dependence Fidelity and Downstream Inference Stability in Generative Models
- arxiv url: http://arxiv.org/abs/2603.17041v1
- Date: Tue, 17 Mar 2026 18:24:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.344347
- Title: Dependence Fidelity and Downstream Inference Stability in Generative Models
- Title(参考訳): 生成モデルにおける依存性の忠実度と下流推測安定性
- Authors: Nazia Riasat,
- Abstract要約: 共分散レベル依存フィデリティは、生成モデルを評価するのに有用な基準である。
依存性のばらつきは、下流の推論において定量的不安定を引き起こす。
これらの結果から, 依存性の忠実度が生成モデル評価に有用であることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in generative AI have led to increasingly realistic synthetic data, yet evaluation criteria remain focused on marginal distribution matching. While these diagnostics assess local realism, they provide limited insight into whether a generative model preserves the multivariate dependence structures governing downstream inference. We introduce covariance-level dependence fidelity as a practical criterion for evaluating whether a generative distribution preserves joint structure beyond univariate marginals. We establish three core results. First, distributions can match all univariate marginals exactly while exhibiting substantially different dependence structures, demonstrating marginal fidelity alone is insufficient. Second, dependence divergence induces quantitative instability in downstream inference, including sign reversals in regression coefficients despite identical marginal behavior. Third, explicit control of covariance-level dependence divergence ensures stable behavior for dependence-sensitive tasks such as principal component analysis. Synthetic constructions illustrate how dependence preservation failures lead to incorrect conclusions despite identical marginal distributions. These results highlight dependence fidelity as a useful diagnostic for evaluating generative models in dependence-sensitive downstream tasks, with implications for diffusion models and variational autoencoders. These guarantees apply specifically to procedures governed by covariance structure; tasks requiring higher-order dependence such as tail-event estimation require richer criteria.
- Abstract(参考訳): 生成AIの最近の進歩は、ますます現実的な合成データをもたらすが、評価基準は、まだ限界分布マッチングに焦点を絞っている。
これらの診断は局所的リアリズムを評価するが、生成モデルが下流の推論を管理する多変量依存構造を保存するかどうかについての限られた洞察を与える。
生成分布が一変量限界を超えて接合構造を保っているかどうかを評価するための実践的基準として,共分散レベル依存忠実度を導入する。
私たちは3つの中核的な結果を確立します。
第一に、分布は、実質的に異なる依存構造を示しながら、すべての単変量辺縁に正確に一致することができ、辺縁の忠実性だけでは不十分であることを示す。
第二に、依存性のばらつきは下流の推論における量的不安定を誘導し、同一の辺りの振舞いに拘わらず回帰係数の符号反転を含む。
第三に、共分散レベル依存分散の明示的な制御は、主成分分析のような依存に敏感なタスクに対して安定した振る舞いを保証する。
合成構造は、依存関係保存の失敗が、同一の辺縁分布にもかかわらず、どのように間違った結論をもたらすかを示す。
これらの結果は,従属型下流タスクにおける生成モデルを評価する上で有用な診断法として依存性の忠実さを強調し,拡散モデルや変分オートエンコーダに影響を及ぼす。
これらの保証は、共分散構造によって支配される手続きに特に適用され、尾点推定のような高次依存を必要とするタスクはよりリッチな基準を必要とする。
関連論文リスト
- Uncertainty in Federated Granger Causality: From Origins to Systemic Consequences [3.122408196953971]
Granger Causality (GC)は時系列データから因果構造を学ぶための厳密なフレームワークを提供する。
フェデレーションGCアルゴリズムは因果関係を決定論的に推定し、不確実性を無視するのみである。
本稿では,不確実性を厳密に定量化するための最初の手法を確立する。
論文 参考訳(メタデータ) (2026-02-13T15:12:18Z) - Mechanistic Independence: A Principle for Identifiable Disentangled Representations [7.550362088105815]
アンタングル表現は、観測データに基づく変動の潜伏因子を復元しようとする。
メカニスティックな独立によって解離が達成される統一的な枠組みを導入する。
論文 参考訳(メタデータ) (2025-09-26T10:58:03Z) - Meta-Dependence in Conditional Independence Testing [11.302018782958205]
本稿では,次の幾何学的直観を用いた条件独立性間の「メタ依存性」について検討する。
本稿では,このメタ依存性を情報投影を用いて簡易に計測し,実世界の合成データと実世界のデータの両方を用いて実験的な結果の統合を行う。
論文 参考訳(メタデータ) (2025-04-17T02:41:22Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - C-Disentanglement: Discovering Causally-Independent Generative Factors
under an Inductive Bias of Confounder [35.09708249850816]
我々は,共同設立者の帰納的バイアスを明示する最初のフレームワークである,C-Disentanglement(C-Disentanglement)というフレームワークを紹介した。
我々は、合成データセットと実世界のデータセットの両方について広範な実験を行う。
論文 参考訳(メタデータ) (2023-10-26T11:44:42Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Exploiting Independent Instruments: Identification and Distribution
Generalization [3.701112941066256]
我々は、より高い瞬間を考慮に入れ、分布一般化の独立性を利用する。
提案した推定器は楽器の分布シフトに不変であることを示す。
これらの結果は、楽器が因果関数を識別するのに十分な豊かでない場合においても成り立つ。
論文 参考訳(メタデータ) (2022-02-03T21:49:04Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Latent Causal Invariant Model [128.7508609492542]
現在の教師付き学習は、データ適合プロセス中に急激な相関を学習することができる。
因果予測を求める潜在因果不変モデル(LaCIM)を提案する。
論文 参考訳(メタデータ) (2020-11-04T10:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。