論文の概要: Identifying Linearly-Mixed Causal Representations from Multi-Node
Interventions
- arxiv url: http://arxiv.org/abs/2311.02695v1
- Date: Sun, 5 Nov 2023 16:05:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 16:15:14.746682
- Title: Identifying Linearly-Mixed Causal Representations from Multi-Node
Interventions
- Title(参考訳): 多ノード介入による線形混合因果表現の同定
- Authors: Simon Bing, Urmi Ninad, Jonas Wahl, Jakob Runge
- Abstract要約: 因果表現学習において、複数の変数を1つの環境内の介入によって対象とすることができる最初の識別可能性結果を提供する。
我々のアプローチは、環境全体にわたる介入のカバレッジと多様性に関する一般的な仮定に基づいている。
理論的貢献に加えて,多ノード干渉データから因果表現を学習するための実用的なアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 15.935205681539145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The task of inferring high-level causal variables from low-level
observations, commonly referred to as causal representation learning, is
fundamentally underconstrained. As such, recent works to address this problem
focus on various assumptions that lead to identifiability of the underlying
latent causal variables. A large corpus of these preceding approaches consider
multi-environment data collected under different interventions on the causal
model. What is common to virtually all of these works is the restrictive
assumption that in each environment, only a single variable is intervened on.
In this work, we relax this assumption and provide the first identifiability
result for causal representation learning that allows for multiple variables to
be targeted by an intervention within one environment. Our approach hinges on a
general assumption on the coverage and diversity of interventions across
environments, which also includes the shared assumption of single-node
interventions of previous works. The main idea behind our approach is to
exploit the trace that interventions leave on the variance of the ground truth
causal variables and regularizing for a specific notion of sparsity with
respect to this trace. In addition to and inspired by our theoretical
contributions, we present a practical algorithm to learn causal representations
from multi-node interventional data and provide empirical evidence that
validates our identifiability results.
- Abstract(参考訳): 低レベルの観測から高レベルの因果変数を推定するタスク(一般に因果表現学習と呼ばれる)は、基本的に過小評価されている。
このように、この問題に対処する最近の研究は、基礎となる潜在因果変数の識別可能性につながる様々な仮定に焦点を当てている。
これらのアプローチの大規模なコーパスは、因果モデルに対する異なる介入の下で収集されたマルチ環境データを考える。
これらの作業のほとんどすべてに共通しているのは、各環境において、1つの変数だけが介入されるという制限的な仮定である。
本研究では,この仮定を緩和し,1つの環境内の介入によって複数の変数を対象とする因果表現学習において,最初の識別可能性結果を提供する。
このアプローチは,前回の作業における単一ノード介入の共有仮定を含む,環境横断的介入のカバレッジと多様性に関する一般的な仮定にかかっている。
我々のアプローチの背後にある主要なアイデアは、介入が基礎的真理因果変数の分散に委ねられ、このトレースに関してスパーシティの特定の概念を定式化するトレースを活用することである。
理論的な貢献に加えて,多ノード干渉データから因果表現を学習し,その妥当性を実証する実証的証拠を提供するための実践的アルゴリズムを提案する。
関連論文リスト
- Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - A Sparsity Principle for Partially Observable Causal Representation
Learning [21.888253597917473]
因果表現学習は、知覚データから高レベルの因果変数を特定することを目的としている。
我々は、インスタンスに依存した部分的可観測パターンを持つデータセットから、未確認の観測から学ぶことに集中する。
提案手法は,推定された表現の間隔を小さくすることで,基礎となる因果変数を推定する2つの手法である。
論文 参考訳(メタデータ) (2024-03-13T08:40:49Z) - Learning Causal Representations from General Environments:
Identifiability and Intrinsic Ambiguity [27.630223763160515]
一般的な環境から得られたデータに基づいて,最初の識別可能性を示す。
線形因果モデルでは、因果グラフは完全復元可能であるが、潜伏変数は閉ノード曖昧性(SNA)までしか識別できないことを示す。
また,SNAまでの地下構造モデルを確実に復元するアルゴリズムである texttLiNGCReL を提案する。
論文 参考訳(メタデータ) (2023-11-21T01:09:11Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [85.67870425656368]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Multi-Domain Causal Representation Learning via Weak Distributional
Invariances [27.72497122405241]
因果表現学習は因果機械学習研究における行動の中心として現れてきた。
このような不変性を組み込んだオートエンコーダは、他の部分から異なる設定で安定なラテントの集合を確実に特定できることを示す。
論文 参考訳(メタデータ) (2023-10-04T14:41:41Z) - Endogenous Macrodynamics in Algorithmic Recourse [52.87956177581998]
対実説明(CE)とアルゴリズム・リコース(AR)に関する既存の研究は、静的環境における個人に主に焦点を当ててきた。
既存の方法論の多くは、一般化されたフレームワークによってまとめて記述できることを示す。
次に、既存のフレームワークは、グループレベルでの言論の内在的ダイナミクスを研究する際にのみ明らかとなるような、隠された対外的関係のコストを考慮に入れていないと論じる。
論文 参考訳(メタデータ) (2023-08-16T07:36:58Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Deconfounded Score Method: Scoring DAGs with Dense Unobserved
Confounding [101.35070661471124]
本研究では,観測データ分布に特徴的フットプリントが残っており,突発的・因果的影響を解消できることを示す。
汎用ソルバで実装し,高次元問題へのスケールアップが可能なスコアベース因果検出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-28T11:07:59Z) - Invariant Causal Prediction for Block MDPs [106.63346115341862]
環境全体にわたる一般化は、実世界の課題への強化学習アルゴリズムの適用の成功に不可欠である。
本稿では,多環境環境における新しい観測を一般化するモデル不適合状態抽象化(MISA)を学習するための不変予測法を提案する。
論文 参考訳(メタデータ) (2020-03-12T21:03:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。