論文の概要: Scalable Contrastive Causal Discovery under Unknown Soft Interventions
- arxiv url: http://arxiv.org/abs/2603.03411v1
- Date: Tue, 03 Mar 2026 18:16:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.045053
- Title: Scalable Contrastive Causal Discovery under Unknown Soft Interventions
- Title(参考訳): 未知のソフトインターベンション下でのスケーラブルなコントラスト因果発見
- Authors: Mingxuan Zhang, Khushi Desai, Sopho Kevlishvili, Elham Azizi,
- Abstract要約: 本稿では,2つの観測と干渉のペア化のためのスケーラブルな因果探索モデルを提案し,その基礎構造と未知のソフト介入について述べる。
合成データの実験では、因果構造回復の改善、保持された因果機構を持つ未知のグラフへの一般化、より大きなグラフへのスケーラビリティが示されている。
- 参考スコア(独自算出の注目度): 3.165716101116899
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Observational causal discovery is only identifiable up to the Markov equivalence class. While interventions can reduce this ambiguity, in practice interventions are often soft with multiple unknown targets. In many realistic scenarios, only a single intervention regime is observed. We propose a scalable causal discovery model for paired observational and interventional settings with shared underlying causal structure and unknown soft interventions. The model aggregates subset-level PDAGs and applies contrastive cross-regime orientation rules to construct a globally consistent maximal PDAG under Meek closure, enabling generalization to both in-distribution and out-of-distribution settings. Theoretically, we prove that our model is sound with respect to a restricted $Ψ$ equivalence class induced solely by the information available in the subset-restricted setting. We further show that the model asymptotically recovers the corresponding identifiable PDAG and can orient additional edges compared to non-contrastive subset-restricted methods. Experiments on synthetic data demonstrate improved causal structure recovery, generalization to unseen graphs with held-out causal mechanisms, and scalability to larger graphs, with ablations supporting the theoretical results.
- Abstract(参考訳): 観測因果発見はマルコフ同値類までしか特定できない。
介入はこの曖昧さを減らすことができるが、実際には複数の未知の標的に対してソフトな介入を行うことが多い。
多くの現実的なシナリオでは、単一の介入体制のみが観察される。
本稿では,2つの観測と干渉のペア化のためのスケーラブルな因果探索モデルを提案し,その基礎構造と未知のソフト介入について述べる。
このモデルはサブセットレベルのPDAGを集約し、コントラッシブなクロスレジーム配向規則を適用して、Meek閉包の下で一様に一貫した極大PDAGを構築する。
理論的には、我々のモデルは、サブセット制限された設定で利用できる情報のみによって誘導される制限された$$同値類に対して健全であることを示す。
さらに, モデルが対応する識別可能なPDAGを漸近的に復元し, 非競合部分制限法と比較して付加的なエッジをオリエントすることができることを示す。
合成データの実験では、因果構造回復の改善、ホールドアウト因果構造を持つ未確認グラフへの一般化、より大きなグラフへの拡張性、理論的な結果を支持することなどが示されている。
関連論文リスト
- FlexCausal: Flexible Causal Disentanglement via Structural Flow Priors and Manifold-Aware Interventions [1.7114074082429929]
因果解離表現学習(Causal Disentangled Representation Learning)は、観測から低次元表現を学習し、解離することを目的とする。
本稿では,ブロック対角共分散VAEに基づく新しいCDRLフレームワークFlexCausalを提案する。
本フレームワークは,学習した潜在部分空間と基底-真理因果関係の正確な構造的対応を保証する。
論文 参考訳(メタデータ) (2026-01-29T11:30:53Z) - Fair Deepfake Detectors Can Generalize [51.21167546843708]
共同設立者(データ分散とモデルキャパシティ)の制御により,公正な介入による一般化が向上することを示す。
この知見を応用して, 逆正当性重み付けとサブグループワイド特徴正規化を併用し, 新たなアライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・インセンティブ・インターベンション・インベンション・インテクション(DAID)を提案する。
DAIDは、いくつかの最先端技術と比較して、公平性と一般化の両方において一貫して優れた性能を達成する
論文 参考訳(メタデータ) (2025-07-03T14:10:02Z) - Improving Group Robustness on Spurious Correlation via Evidential Alignment [26.544938760265136]
ディープニューラルネットワークは、しばしば急激な相関、すなわち非因果的特徴と標的の間の表面的関連を学習し、依存する。
既存のメソッドは通常、外部のグループアノテーションや補助的な決定論的モデルを使用することでこの問題を軽減する。
偏りのあるモデルの振る舞いを理解するために不確実性定量化を利用する新しいフレームワークであるエビデンシャルアライメントを提案する。
論文 参考訳(メタデータ) (2025-06-12T22:47:21Z) - Identifiability Guarantees for Causal Disentanglement from Soft
Interventions [26.435199501882806]
因果解離は因果モデルを通して相互に関係する潜伏変数を用いてデータの表現を明らかにすることを目的としている。
本稿では,各介入が潜伏変数のメカニズムを変えることにより,未ペアの観測データと介入データが利用可能となるシナリオに焦点を当てる。
因果変数が完全に観測されると、忠実性の仮定の下で因果モデルを特定するために統計的に一貫したアルゴリズムが開発された。
論文 参考訳(メタデータ) (2023-07-12T15:39:39Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Modeling Causal Mechanisms with Diffusion Models for Interventional and Counterfactual Queries [10.818661865303518]
本稿では,観察的,介入的,反ファクト的クエリに因果的に十分な設定で回答する問題を考察する。
本稿では拡散型因果モデル (DCM) を導入し, 独自の潜伏符号化を生成する因果メカニズムを学習する。
我々の実証評価は、因果クエリに応答する既存の最先端手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2023-02-02T04:08:08Z) - BCD Nets: Scalable Variational Approaches for Bayesian Causal Discovery [97.79015388276483]
構造方程式モデル(SEM)は、有向非巡回グラフ(DAG)を介して表される因果関係を推論する効果的な枠組みである。
近年の進歩により、観測データからDAGの有効最大点推定が可能となった。
線形ガウス SEM を特徴付ける DAG 上の分布を推定するための変分フレームワークである BCD Nets を提案する。
論文 参考訳(メタデータ) (2021-12-06T03:35:21Z) - Scalable Intervention Target Estimation in Linear Models [52.60799340056917]
因果構造学習への現在のアプローチは、既知の介入目標を扱うか、仮説テストを使用して未知の介入目標を発見する。
本稿では、全ての介入対象を一貫して識別するスケーラブルで効率的なアルゴリズムを提案する。
提案アルゴリズムは、与えられた観測マルコフ同値クラスを介入マルコフ同値クラスに更新することも可能である。
論文 参考訳(メタデータ) (2021-11-15T03:16:56Z) - Partially Intervenable Causal Models [22.264327945288642]
我々は、グラフィカルモデルの定義を許容される介入の限定セットで定義するために、因果関係に対するグラフィカルおよび潜在的結果の統一に基づいて構築する。
この結果のまとめは、介入の制限された別のグラフィカルなフレームワークにおける因果効果の完全な同定理論である。
論文 参考訳(メタデータ) (2021-10-24T22:24:57Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。