論文の概要: Provable Affine Identifiability of Nonlinear CCA under Latent Distributional Priors
- arxiv url: http://arxiv.org/abs/2510.04758v1
- Date: Mon, 06 Oct 2025 12:35:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.853178
- Title: Provable Affine Identifiability of Nonlinear CCA under Latent Distributional Priors
- Title(参考訳): 遅延分布優先条件下での非線形CCAの確率的アフィン識別性
- Authors: Zhiwei Han, Stefan Matthes, Hao Shen,
- Abstract要約: 人口設定における潜伏分布の幅広いクラスに対するアフィン識別可能性を証明する。
有界性と良質性を確保するためには,白化が不可欠であることを示す。
人口設定の他に、隆起規則化された経験的CCAがその人口に収束していることが証明される。
- 参考スコア(独自算出の注目度): 7.550362088105815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we establish conditions under which nonlinear CCA recovers the ground-truth latent factors up to an orthogonal transform after whitening. Building on the classical result that linear mappings maximize canonical correlations under Gaussian priors, we prove affine identifiability for a broad class of latent distributions in the population setting. Central to our proof is a reparameterization result that transports the analysis from observation space to source space, where identifiability becomes tractable. We further show that whitening is essential for ensuring boundedness and well-conditioning, thereby underpinning identifiability. Beyond the population setting, we prove that ridge-regularized empirical CCA converges to its population counterpart, transferring these guarantees to the finite-sample regime. Experiments on a controlled synthetic dataset and a rendered image dataset validate our theory and demonstrate the necessity of its assumptions through systematic ablations.
- Abstract(参考訳): そこで本研究では,非線形CCAが白化後に直交変換を行う条件を確立する。
線形写像がガウス以前の標準相関を最大化する古典的な結果に基づいて、人口設定における幅広い潜在分布のクラスに対するアフィン識別性を証明した。
我々の証明の中心は、観測空間から情報源空間へ解析を輸送する再パラメータ化の結果であり、そこでは識別可能性の抽出が可能である。
さらに,白化は有界性と良質性の確保に不可欠であることを示す。
人口設定を超えて、リッジ規則化された経験的CCAがその人口に収束し、これらの保証が有限サンプル体制に移管されることを示す。
制御された合成データセットとレンダリングされた画像データセットの実験は、我々の理論を検証し、体系的な改善を通じてその仮定の必要性を実証する。
関連論文リスト
- Linear Causal Representation Learning by Topological Ordering, Pruning, and Disentanglement [12.380741069149956]
因果表現学習(CRL)は、因果推論や人工知能コミュニティからの関心が高まっている。
本研究では, 環境の不均一性やデータ生成分布について, より弱い仮定の下での線形CRLアルゴリズムを提案する。
合成実験と大規模言語モデルの解釈可能性解析により,新しいアルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2025-09-26T16:35:42Z) - Distance-Preserving Spatial Representations in Genomic Data [0.0]
単一細胞遺伝子発現データの空間的コンテキストは、多くの下流解析において重要であるが、実際的および技術的制限のため、しばしばアクセスできない。
本稿では、提供された遺伝子発現データに関連する空間座標を再構成できる汎用表現学習・伝達学習フレームワークdp-VAEを提案する。
論文 参考訳(メタデータ) (2024-08-01T21:04:27Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - BayesDAG: Gradient-Based Posterior Inference for Causal Discovery [30.027520859604955]
マルコフ・チェイン・モンテカルロと変分推論を組み合わせたスケーラブルな因果探索フレームワークを提案する。
本手法では,DAG正則化を必要とせず,直接後部からDAGを採取する。
我々は、置換に基づくDAG学習に新しい等価性をもたらし、置換によって定義された緩和された推定器を使用する可能性を開く。
論文 参考訳(メタデータ) (2023-07-26T02:34:13Z) - Learning Linear Causal Representations from Interventions under General
Nonlinear Mixing [52.66151568785088]
介入対象にアクセスできることなく、未知の単一ノード介入を考慮し、強い識別可能性を示す。
これは、ディープニューラルネットワークの埋め込みに対する非ペアの介入による因果識別性の最初の例である。
論文 参考訳(メタデータ) (2023-06-04T02:32:12Z) - Bayesian Renormalization [68.8204255655161]
ベイズ統計的推論にインスパイアされた再正規化に対する完全情報理論的アプローチを提案する。
ベイズ再正規化の主な洞察は、フィッシャー計量が創発的RGスケールの役割を担う相関長を定義することである。
本研究では,ベイズ正規化方式が既存のデータ圧縮法やデータ生成法とどのように関係しているかを考察する。
論文 参考訳(メタデータ) (2023-05-17T18:00:28Z) - Score-based Causal Representation Learning with Interventions [54.735484409244386]
本稿では,潜在因果変数を間接的に観察する際の因果表現学習問題について検討する。
目的は、 (i) 未知の線形変換(スケーリングまで)を回復し、 (ii) 潜在変数の下の有向非巡回グラフ(DAG)を決定することである。
論文 参考訳(メタデータ) (2023-01-19T18:39:48Z) - Optimal regularizations for data generation with probabilistic graphical
models [0.0]
経験的に、よく調和された正規化スキームは、推論されたモデルの品質を劇的に改善する。
生成的ペアワイドグラフィカルモデルの最大Aポストエリオーリ(MAP)推論におけるL2とL1の正規化について検討する。
論文 参考訳(メタデータ) (2021-12-02T14:45:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。