論文の概要: Temporal Latent Variable Structural Causal Model for Causal Discovery under External Interferences
- arxiv url: http://arxiv.org/abs/2511.10031v1
- Date: Fri, 14 Nov 2025 01:27:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.652462
- Title: Temporal Latent Variable Structural Causal Model for Causal Discovery under External Interferences
- Title(参考訳): 外部干渉による因果発見のための時間遅延可変構造因果モデル
- Authors: Ruichu Cai, Xiaokai Huang, Wei Chen, Zijian Li, Zhifeng Hao,
- Abstract要約: 観測データに影響を与える非観測因子を表現するために潜伏変数を導入する。
具体的には、因果強度と隣接情報を捉えるために、時間変動型因果モデルを提案する。
専門家の知識が特定のシナリオにおける未知の干渉に関する情報を提供することができることを考慮し,パラメータ学習への事前知識の導入を容易にする手法を開発した。
- 参考スコア(独自算出の注目度): 53.308122815325326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inferring causal relationships from observed data is an important task, yet it becomes challenging when the data is subject to various external interferences. Most of these interferences are the additional effects of external factors on observed variables. Since these external factors are often unknown, we introduce latent variables to represent these unobserved factors that affect the observed data. Specifically, to capture the causal strength and adjacency information, we propose a new temporal latent variable structural causal model, incorporating causal strength and adjacency coefficients that represent the causal relationships between variables. Considering that expert knowledge can provide information about unknown interferences in certain scenarios, we develop a method that facilitates the incorporation of prior knowledge into parameter learning based on Variational Inference, to guide the model estimation. Experimental results demonstrate the stability and accuracy of our proposed method.
- Abstract(参考訳): 観測データから因果関係を推定することは重要な課題であるが、データが様々な外部干渉を受けると困難になる。
これらの干渉のほとんどは、観測された変数に対する外部因子の付加効果である。
これらの外部因子はしばしば未知であるため、観測データに影響を与える非観測因子を表現するために潜伏変数を導入する。
具体的には, 因果関係を表す因果関係と隣接係数を組み込んだ時間変化型因果関係モデルを提案する。
専門家の知識が特定のシナリオにおける未知の干渉に関する情報を提供することができることを考慮し、モデル推定を導くために、変分推論に基づくパラメータ学習への事前知識の組み入れを容易にする方法を開発した。
実験の結果,提案手法の安定性と精度が示された。
関連論文リスト
- Causal Inference with Latent Variables: Recent Advances and Future Prospectives [43.04559575298597]
因果推論(英: Causal inference、CI)は、興味のある変数間の固有の因果関係を推定することを目的としている。
重要な変数の観察の欠如は、CIメソッドの信頼性を著しく損なう。
これらの潜伏変数が不注意に扱われると、様々な結果が生じる。
論文 参考訳(メタデータ) (2024-06-20T03:15:53Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Nonlinearity, Feedback and Uniform Consistency in Causal Structural
Learning [0.8158530638728501]
Causal Discoveryは、観測データから因果構造を学習するための自動探索手法を見つけることを目的としている。
この論文は因果発見における2つの疑問に焦点をあてる: (i) k-三角形の忠実性の代替定義を提供すること (i) (i) はガウス分布の族に適用されるとき強い忠実性よりも弱いこと (ii) 修正版の強忠実性が成り立つという仮定のもとに。
論文 参考訳(メタデータ) (2023-08-15T01:23:42Z) - Towards Causal Representation Learning and Deconfounding from Indefinite
Data [17.793702165499298]
非統計データ(画像、テキストなど)は、従来の因果データとプロパティやメソッドの点で重大な対立に遭遇する。
2つの新しい視点から因果データを再定義し、3つのデータパラダイムを提案する。
非定値データから因果表現を学習するための動的変分推論モデルとして,上記の設計を実装した。
論文 参考訳(メタデータ) (2023-05-04T08:20:37Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - Latent Causal Invariant Model [128.7508609492542]
現在の教師付き学習は、データ適合プロセス中に急激な相関を学習することができる。
因果予測を求める潜在因果不変モデル(LaCIM)を提案する。
論文 参考訳(メタデータ) (2020-11-04T10:00:27Z) - Estimating Causal Effects with the Neural Autoregressive Density
Estimator [6.59529078336196]
我々は、Pearlのdo-calculusフレームワーク内の因果効果を推定するために、神経自己回帰密度推定器を使用する。
本手法は,変数間の相互作用を明示的にモデル化することなく,非線形システムから因果効果を抽出できることを示す。
論文 参考訳(メタデータ) (2020-08-17T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。