論文の概要: Causal Forecasting:Generalization Bounds for Autoregressive Models
- arxiv url: http://arxiv.org/abs/2111.09831v1
- Date: Thu, 18 Nov 2021 17:56:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 13:57:03.636465
- Title: Causal Forecasting:Generalization Bounds for Autoregressive Models
- Title(参考訳): 因果予測:自己回帰モデルに対する一般化境界
- Authors: Leena Chennuru Vankadara, Philipp Michael Faller, Lenon Minorics,
Debarghya Ghoshdastidar, Dominik Janzing
- Abstract要約: 本稿では,予測のための「因果学習理論」の枠組みを紹介する。
統計的リスクと因果リスクの違いを特徴付ける。
これは時系列設定における因果一般化の理論的保証を提供する最初の研究である。
- 参考スコア(独自算出の注目度): 19.407531303870087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the increasing relevance of forecasting methods, the causal
implications of these algorithms remain largely unexplored. This is concerning
considering that, even under simplifying assumptions such as causal
sufficiency, the statistical risk of a model can differ significantly from its
\textit{causal risk}. Here, we study the problem of *causal generalization* --
generalizing from the observational to interventional distributions -- in
forecasting. Our goal is to find answers to the question: How does the efficacy
of an autoregressive (VAR) model in predicting statistical associations compare
with its ability to predict under interventions?
To this end, we introduce the framework of *causal learning theory* for
forecasting. Using this framework, we obtain a characterization of the
difference between statistical and causal risks, which helps identify sources
of divergence between them. Under causal sufficiency, the problem of causal
generalization amounts to learning under covariate shifts albeit with
additional structure (restriction to interventional distributions). This
structure allows us to obtain uniform convergence bounds on causal
generalizability for the class of VAR models. To the best of our knowledge,
this is the first work that provides theoretical guarantees for causal
generalization in the time-series setting.
- Abstract(参考訳): 予測手法の関連性は高まっているが、これらのアルゴリズムの因果関係はほとんど解明されていない。
これは、因果正当性のような仮定を単純化しても、モデルの統計的リスクは、その \textit{causal risk} と大きく異なる可能性があることを考慮している。
本稿では,観測分布から介入分布へ一般化する*因果一般化*の予測問題について検討する。
我々の目標は、統計的関連性を予測するための自己回帰モデル(VAR)の有効性は、介入下での予測能力とどのように比較できるのか?
この目的のために、予測のための *causal learning theory* の枠組みを紹介する。
この枠組みを用いて,統計的リスクと因果リスクの差異を解析し,それらの相違点の同定を支援する。
因果的充足の下では、因果的一般化の問題は、追加構造(介入分布の制限)があるにもかかわらず、共変量シフトの下での学習に比例する。
この構造により、VARモデルのクラスに対する因果一般化性に関する一様収束境界が得られる。
我々の知る限りでは、時系列設定における因果一般化の理論的保証を提供する最初の研究である。
関連論文リスト
- Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Causality-oriented robustness: exploiting general additive interventions [3.871660145364189]
本稿では因果性指向のロバスト性に着目し,不変勾配(DRIG)を用いた分布ロバスト性を提案する。
線形環境では、DRIGがデータ依存の分布シフトのクラスの中で頑健な予測を得られることを証明している。
我々は、予測性能をさらに向上させるために、半教師付きドメイン適応設定にアプローチを拡張した。
論文 参考訳(メタデータ) (2023-07-18T16:22:50Z) - Identifiability Guarantees for Causal Disentanglement from Soft
Interventions [26.435199501882806]
因果解離は因果モデルを通して相互に関係する潜伏変数を用いてデータの表現を明らかにすることを目的としている。
本稿では,各介入が潜伏変数のメカニズムを変えることにより,未ペアの観測データと介入データが利用可能となるシナリオに焦点を当てる。
因果変数が完全に観測されると、忠実性の仮定の下で因果モデルを特定するために統計的に一貫したアルゴリズムが開発された。
論文 参考訳(メタデータ) (2023-07-12T15:39:39Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Causality and Generalizability: Identifiability and Learning Methods [0.0]
この論文は、因果効果の推定、因果構造学習、および分布的に堅牢な予測方法に関する研究領域に寄与する。
本稿では,データ依存平均二乗予測誤差正規化を用いた機器変数設定における線形・非線形因果関係推定器について述べる。
本稿では,介入誘起分布に関する分布ロバスト性に関する一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2021-10-04T13:12:11Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z) - Causal Autoregressive Flows [4.731404257629232]
自己回帰正規化フローの単純なファミリーと同定可能な因果モデルとの本質的な対応を強調した。
我々は、自己回帰フローアーキテクチャが、因果順序に類似した変数の順序を定義しているという事実を利用して、様々な因果推論タスクを実行するのに適していることを示す。
論文 参考訳(メタデータ) (2020-11-04T13:17:35Z) - Latent Causal Invariant Model [128.7508609492542]
現在の教師付き学習は、データ適合プロセス中に急激な相関を学習することができる。
因果予測を求める潜在因果不変モデル(LaCIM)を提案する。
論文 参考訳(メタデータ) (2020-11-04T10:00:27Z) - Learning Causal Semantic Representation for Out-of-Distribution
Prediction [125.38836464226092]
因果推論に基づく因果意味生成モデル(CSG)を提案し,その2つの要因を別々にモデル化する。
CSGはトレーニングデータに適合させることで意味的因子を識別できることを示し、この意味的識別はOOD一般化誤差の有界性を保証する。
論文 参考訳(メタデータ) (2020-11-03T13:16:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。