論文の概要: Variance Minimization in the Wasserstein Space for Invariant Causal
Prediction
- arxiv url: http://arxiv.org/abs/2110.07064v1
- Date: Wed, 13 Oct 2021 22:30:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 15:09:52.711000
- Title: Variance Minimization in the Wasserstein Space for Invariant Causal
Prediction
- Title(参考訳): 変分因果予測のためのワッサーシュタイン空間の分散最小化
- Authors: Guillaume Martinet, Alexander Strzalkowski, Barbara E. Engelhardt
- Abstract要約: そこで本研究では,ICPで行ったアプローチを,予測器数で線形にスケールする一連の非パラメトリックテストとして再検討する。
これらのテストはそれぞれ、最適輸送理論の道具から導かれる新しい損失関数の最小化に依存している。
我々は,本手法が同定可能な直接原因の集合を回復できるという軽微な仮定の下で証明し,他のベンチマーク因果探索アルゴリズムと競合することを示す。
- 参考スコア(独自算出の注目度): 72.13445677280792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Selecting powerful predictors for an outcome is a cornerstone task for
machine learning. However, some types of questions can only be answered by
identifying the predictors that causally affect the outcome. A recent approach
to this causal inference problem leverages the invariance property of a causal
mechanism across differing experimental environments (Peters et al., 2016;
Heinze-Deml et al., 2018). This method, invariant causal prediction (ICP), has
a substantial computational defect -- the runtime scales exponentially with the
number of possible causal variables. In this work, we show that the approach
taken in ICP may be reformulated as a series of nonparametric tests that scales
linearly in the number of predictors. Each of these tests relies on the
minimization of a novel loss function -- the Wasserstein variance -- that is
derived from tools in optimal transport theory and is used to quantify
distributional variability across environments. We prove under mild assumptions
that our method is able to recover the set of identifiable direct causes, and
we demonstrate in our experiments that it is competitive with other benchmark
causal discovery algorithms.
- Abstract(参考訳): 結果に対する強力な予測器の選択は、機械学習の基本的なタスクである。
しかしながら、いくつかの質問は、結果に因果的に影響を及ぼす予測者を特定することでのみ答えられる。
この因果推論問題に対する最近のアプローチは、異なる実験環境(Peters et al., 2016; Heinze-Deml et al., 2018)における因果機構の不変性を利用する。
This method, invariant causal prediction (ICP), has a substantial computational defect -- the runtime scales exponentially with the number of possible causal variables. In this work, we show that the approach taken in ICP may be reformulated as a series of nonparametric tests that scales linearly in the number of predictors. Each of these tests relies on the minimization of a novel loss function -- the Wasserstein variance -- that is derived from tools in optimal transport theory and is used to quantify distributional variability across environments.
我々は,本手法が同定可能な直接原因のセットを回復できるという軽度の仮定の下で証明し,他のベンチマーク因果発見アルゴリズムと競合することを実験で実証した。
関連論文リスト
- Local Prediction-Powered Inference [7.174572371800217]
本稿では,PPIを用いた局所多変量回帰のための特定のアルゴリズムを提案する。
信頼区間, バイアス補正, カバレッジ確率を解析し, アルゴリズムの正しさと優越性を検証した。
論文 参考訳(メタデータ) (2024-09-26T22:15:53Z) - Invariant Causal Prediction with Local Models [52.161513027831646]
観測データから対象変数の因果親を特定するタスクについて検討する。
L-ICP(textbfL$ocalized $textbfI$nvariant $textbfCa$usal $textbfP$rediction)と呼ばれる実用的手法を導入する。
論文 参考訳(メタデータ) (2024-01-10T15:34:42Z) - Selective Nonparametric Regression via Testing [54.20569354303575]
本研究では,所定の点における条件分散の値に関する仮説を検証し,留置手順を開発する。
既存の手法とは異なり、提案手法は分散自体の値だけでなく、対応する分散予測器の不確実性についても考慮することができる。
論文 参考訳(メタデータ) (2023-09-28T13:04:11Z) - Invariant Probabilistic Prediction [45.90606906307022]
任意の分布シフトは、一般に不変かつ頑健な確率的予測を認めないことを示す。
Invariant probabilistic predictions called IPP, and study the consistency of the underlying parameters。
論文 参考訳(メタデータ) (2023-09-18T18:50:24Z) - Benign-Overfitting in Conditional Average Treatment Effect Prediction
with Linear Regression [14.493176427999028]
線形回帰モデルを用いて条件平均処理効果(CATE)の予測における良性過剰適合理論について検討した。
一方,IPW-learnerは確率スコアが分かっていればリスクをゼロに収束させるが,T-learnerはランダムな割り当て以外の一貫性を達成できないことを示す。
論文 参考訳(メタデータ) (2022-02-10T18:51:52Z) - Invariant Ancestry Search [6.583725235299022]
最小不変性の概念を導入し、不変祖先探索(IAS)を提案する。
集団版では、IASは応答の祖先のみを含む集合を出力し、ICPの出力である。
スケーラブルなアルゴリズムを開発し、シミュレーションおよび実データの実験を行う。
論文 参考訳(メタデータ) (2022-02-02T08:28:00Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z) - Latent Causal Invariant Model [128.7508609492542]
現在の教師付き学習は、データ適合プロセス中に急激な相関を学習することができる。
因果予測を求める潜在因果不変モデル(LaCIM)を提案する。
論文 参考訳(メタデータ) (2020-11-04T10:00:27Z) - Stable Prediction via Leveraging Seed Variable [73.9770220107874]
従来の機械学習手法は、非因果変数によって誘導されるトレーニングデータにおいて、微妙に刺激的な相関を利用して予測する。
本研究では, 条件付き独立性テストに基づくアルゴリズムを提案し, 種子変数を先行変数とする因果変数を分離し, 安定な予測に採用する。
我々のアルゴリズムは、安定した予測のための最先端の手法より優れている。
論文 参考訳(メタデータ) (2020-06-09T06:56:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。