論文の概要: Identifying General Mechanism Shifts in Linear Causal Representations
- arxiv url: http://arxiv.org/abs/2410.24059v1
- Date: Thu, 31 Oct 2024 15:56:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 17:03:46.336344
- Title: Identifying General Mechanism Shifts in Linear Causal Representations
- Title(参考訳): 線形因果表現における一般的なメカニズムシフトの同定
- Authors: Tianyu Chen, Kevin Bello, Francesco Locatello, Bryon Aragam, Pradeep Ravikumar,
- Abstract要約: 我々は,未知の潜在因子の線形混合を観測する線形因果表現学習環境について考察する。
近年の研究では、潜伏要因の復元や、それに基づく構造因果モデルの構築が可能であることが示されている。
非常に穏やかな標準仮定の下では、シフトしたノードの集合を識別することが可能である。
- 参考スコア(独自算出の注目度): 58.6238439611389
- License:
- Abstract: We consider the linear causal representation learning setting where we observe a linear mixing of $d$ unknown latent factors, which follow a linear structural causal model. Recent work has shown that it is possible to recover the latent factors as well as the underlying structural causal model over them, up to permutation and scaling, provided that we have at least $d$ environments, each of which corresponds to perfect interventions on a single latent node (factor). After this powerful result, a key open problem faced by the community has been to relax these conditions: allow for coarser than perfect single-node interventions, and allow for fewer than $d$ of them, since the number of latent factors $d$ could be very large. In this work, we consider precisely such a setting, where we allow a smaller than $d$ number of environments, and also allow for very coarse interventions that can very coarsely \textit{change the entire causal graph over the latent factors}. On the flip side, we relax what we wish to extract to simply the \textit{list of nodes that have shifted between one or more environments}. We provide a surprising identifiability result that it is indeed possible, under some very mild standard assumptions, to identify the set of shifted nodes. Our identifiability proof moreover is a constructive one: we explicitly provide necessary and sufficient conditions for a node to be a shifted node, and show that we can check these conditions given observed data. Our algorithm lends itself very naturally to the sample setting where instead of just interventional distributions, we are provided datasets of samples from each of these distributions. We corroborate our results on both synthetic experiments as well as an interesting psychometric dataset. The code can be found at https://github.com/TianyuCodings/iLCS.
- Abstract(参考訳): 我々は、線形構造因果モデルに従う未知の潜在因子の線形混合を観測する線形因果表現学習環境について考察する。
最近の研究は、潜伏ノード(ファクター)の完全な介入に対応する少なくとも$d$の環境があることを条件に、潜伏要因とそれらの上の基盤となる構造因果モデルを取り戻すことが可能であることを示している。
この強力な結果の後、コミュニティが直面している重要なオープンな問題は、これらの条件を緩和することであった。
この研究において、我々は、$d$以下の環境を許容し、また、非常に粗い介入を許容し、非常に粗い形で、潜在因子の上の因果グラフ全体を変更できるような設定を正確に検討する。
一方、我々は単に1つ以上の環境に移行したノードの \textit{list に抽出したいものを緩和します。
非常に穏やかな標準仮定の下では、シフトしたノードの集合を識別することが可能である。
ノードがシフトしたノードであるために必要な十分な条件を明示的に提供し、観測されたデータからこれらの条件を確認することができることを示す。
私たちのアルゴリズムは、介入分布だけでなく、それぞれの分布からサンプルのデータセットを提供するサンプル設定に自然に役立ちます。
我々は、人工実験と、興味深い心理測定データセットの両方で結果の相関付けを行う。
コードはhttps://github.com/TianyuCodings/iLCSで見ることができる。
関連論文リスト
- Controllable Generation via Locally Constrained Resampling [77.48624621592523]
本研究では, ベイズ条件付けを行い, 制約条件下でサンプルを描画する, トラクタブルな確率的手法を提案する。
提案手法はシーケンス全体を考慮し,現行のグリード法よりも大域的に最適に制約された生成を導出する。
提案手法は, 有害な世代からモデル出力を分離し, 脱毒化に対する同様のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2024-10-17T00:49:53Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Learning Causal Representations from General Environments:
Identifiability and Intrinsic Ambiguity [27.630223763160515]
一般的な環境から得られたデータに基づいて,最初の識別可能性を示す。
線形因果モデルでは、因果グラフは完全復元可能であるが、潜伏変数は閉ノード曖昧性(SNA)までしか識別できないことを示す。
また,SNAまでの地下構造モデルを確実に復元するアルゴリズムである texttLiNGCReL を提案する。
論文 参考訳(メタデータ) (2023-11-21T01:09:11Z) - Identifiability of Sparse Causal Effects using Instrumental Variables [11.97552507834888]
本稿では,共変量$X$の応答に対する因果効果が疎い線形モデルを考える。
観測された分布から因果係数が同定可能な条件を提供する。
推定器として、空間IVを提案し、モデルが同定可能であれば因果効果を常に推定することを証明する。
論文 参考訳(メタデータ) (2022-03-17T15:15:52Z) - Distributional Hardness Against Preconditioned Lasso via Erasure-Robust
Designs [22.41443027099101]
標準スパースランダム設計は, 逆測定消去に対して高い確率で頑健であることを示す。
消去下での任意のスパース信号の部分的回復性が圧縮センシングで研究されたのはこれが初めてである。
論文 参考訳(メタデータ) (2022-03-05T22:16:05Z) - On the Generative Utility of Cyclic Conditionals [103.1624347008042]
2つの条件付きモデル$p(x|z)$を用いて、共同分布$p(x,z)$をモデル化できるかどうか、また、どのようにしてサイクルを形成するかを検討する。
本稿では,周期条件生成モデリングのためのCyGenフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-30T10:23:45Z) - Spatially relaxed inference on high-dimensional linear models [48.989769153211995]
本研究では,空間的に制約されたクラスタリング,統計的推論,アンサンブルを組み合わせ,複数のクラスタリング推論解を集約するアンサンブルクラスタリング推論アルゴリズムの特性について検討する。
アンサンブルクラスタ推論アルゴリズムは,最大クラスター径に等しい$delta$-FWERの標準仮定で$delta$-FWERを制御することを示す。
論文 参考訳(メタデータ) (2021-06-04T16:37:19Z) - Deconfounded Score Method: Scoring DAGs with Dense Unobserved
Confounding [101.35070661471124]
本研究では,観測データ分布に特徴的フットプリントが残っており,突発的・因果的影響を解消できることを示す。
汎用ソルバで実装し,高次元問題へのスケールアップが可能なスコアベース因果検出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-28T11:07:59Z) - Fairness constraints can help exact inference in structured prediction [37.76221231305701]
直交連結グラフ$G$と2進ラベルの真のベクトルを持つ生成モデルについて検討する。
フェアネスとモデル性能の間の既知のトレードオフとは対照的に、フェアネス制約の追加は正確なリカバリの確率を向上させる。
論文 参考訳(メタデータ) (2020-07-01T04:11:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。