論文の概要: On the Identifiability of Causal Abstractions
- arxiv url: http://arxiv.org/abs/2503.10834v1
- Date: Thu, 13 Mar 2025 19:34:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:09:15.659160
- Title: On the Identifiability of Causal Abstractions
- Title(参考訳): 因果的抽象の同定可能性について
- Authors: Xiusi Li, Sékou-Oumar Kaba, Siamak Ravanbakhsh,
- Abstract要約: 因果表現学習は機械学習モデルの堅牢性と一般化性を高める。
本研究では,観測可能空間内のデータ対を用いて潜在因果モデルを特定するCRL手法のファミリーに着目した。
そこで我々は,一組の介入を前提として,因果モデルを特定することができる程度を計算できる理論的枠組みを導入する。
- 参考スコア(独自算出の注目度): 15.785002371773139
- License:
- Abstract: Causal representation learning (CRL) enhances machine learning models' robustness and generalizability by learning structural causal models associated with data-generating processes. We focus on a family of CRL methods that uses contrastive data pairs in the observable space, generated before and after a random, unknown intervention, to identify the latent causal model. (Brehmer et al., 2022) showed that this is indeed possible, given that all latent variables can be intervened on individually. However, this is a highly restrictive assumption in many systems. In this work, we instead assume interventions on arbitrary subsets of latent variables, which is more realistic. We introduce a theoretical framework that calculates the degree to which we can identify a causal model, given a set of possible interventions, up to an abstraction that describes the system at a higher level of granularity.
- Abstract(参考訳): 因果表現学習(CRL)は、データ生成プロセスに関連する構造因果モデルを学ぶことにより、機械学習モデルの堅牢性と一般化性を高める。
本研究では,無作為かつ未知な介入の前後に発生する観測可能空間におけるコントラストデータペアを用いて,潜在因果モデルを特定するCRL手法のファミリーに着目した。
(Brehmer et al , 2022) は、全ての潜伏変数を個別にインターベンションできることを考えると、これは実際に可能であることを示した。
しかし、これは多くのシステムにおいて非常に制限的な仮定である。
この研究では、より現実的な潜在変数の任意の部分集合に対する介入を仮定する。
本稿では,より粒度の高いシステムを記述する抽象化まで可能な介入の集合を考慮し,因果モデルを特定することができる程度を計算できる理論的枠組みを提案する。
関連論文リスト
- Identifiable Causal Representation Learning: Unsupervised, Multi-View, and Multi-Environment [10.814585613336778]
因果表現学習は、機械学習のコアとなる強みと因果性を組み合わせることを目的としている。
この論文は、CRLが直接の監督なしに何が可能であるかを調査し、理論的基礎に寄与する。
論文 参考訳(メタデータ) (2024-06-19T09:14:40Z) - Identifiability Guarantees for Causal Disentanglement from Soft
Interventions [26.435199501882806]
因果解離は因果モデルを通して相互に関係する潜伏変数を用いてデータの表現を明らかにすることを目的としている。
本稿では,各介入が潜伏変数のメカニズムを変えることにより,未ペアの観測データと介入データが利用可能となるシナリオに焦点を当てる。
因果変数が完全に観測されると、忠実性の仮定の下で因果モデルを特定するために統計的に一貫したアルゴリズムが開発された。
論文 参考訳(メタデータ) (2023-07-12T15:39:39Z) - A Causal Ordering Prior for Unsupervised Representation Learning [27.18951912984905]
因果表現学習(Causal representation learning)は、データセットの変動の要因は、実際には因果関係にあると主張している。
本稿では,遅延付加雑音モデルを用いたデータ生成過程を考慮した,教師なし表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-11T18:12:05Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - On the Interventional Kullback-Leibler Divergence [11.57430292133273]
因果モデル間の構造的差異と分布的差異を定量化するために、Interventional Kullback-Leibler divergenceを導入する。
本稿では,介入対象に対する十分な条件を提案し,モデルが確実に一致または一致しない観察変数のサブセットを同定する。
論文 参考訳(メタデータ) (2023-02-10T17:03:29Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Do-calculus enables causal reasoning with latent variable models [2.294014185517203]
潜在変数モデル(LVM)は、トレーニング中に変数の一部が隠蔽される確率モデルである。
因果推論は,確率的モデリングコミュニティで長年確立されてきた幅広いlvmのクラスを拡張できることを示す。
論文 参考訳(メタデータ) (2021-02-12T17:12:53Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - A Critical View of the Structural Causal Model [89.43277111586258]
相互作用を全く考慮せずに原因と効果を識別できることが示される。
本稿では,因果モデルの絡み合った構造を模倣する新たな逆行訓練法を提案する。
我々の多次元手法は, 合成および実世界の両方のデータセットにおいて, 文献的手法よりも優れている。
論文 参考訳(メタデータ) (2020-02-23T22:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。