論文の概要: Causality-aware counterfactual confounding adjustment as an alternative
to linear residualization in anticausal prediction tasks based on linear
learners
- arxiv url: http://arxiv.org/abs/2011.04605v1
- Date: Mon, 9 Nov 2020 17:59:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 23:58:28.035604
- Title: Causality-aware counterfactual confounding adjustment as an alternative
to linear residualization in anticausal prediction tasks based on linear
learners
- Title(参考訳): リニア学習者に基づく反因果予測課題における線形残差の代替としての因果性を考慮した反事実結合調整
- Authors: Elias Chaibub Neto
- Abstract要約: 反因果予測タスクにおける因果関係を考慮した共起調整に対する線形残差化手法の比較を行った。
線形学習者の予測性能において,因果認識アプローチは(漸近的に)残留化調整に優れる傾向があることを示す。
- 参考スコア(独自算出の注目度): 14.554818659491644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Linear residualization is a common practice for confounding adjustment in
machine learning (ML) applications. Recently, causality-aware predictive
modeling has been proposed as an alternative causality-inspired approach for
adjusting for confounders. The basic idea is to simulate counterfactual data
that is free from the spurious associations generated by the observed
confounders. In this paper, we compare the linear residualization approach
against the causality-aware confounding adjustment in anticausal prediction
tasks, and show that the causality-aware approach tends to (asymptotically)
outperform the residualization adjustment in terms of predictive performance in
linear learners. Importantly, our results still holds even when the true model
is not linear. We illustrate our results in both regression and classification
tasks, where we compared the causality-aware and residualization approaches
using mean squared errors and classification accuracy in synthetic data
experiments where the linear regression model is mispecified, as well as, when
the linear model is correctly specified. Furthermore, we illustrate how the
causality-aware approach is more stable than residualization with respect to
dataset shifts in the joint distribution of the confounders and outcome
variables.
- Abstract(参考訳): 線形残差化は機械学習(ML)アプリケーションにおいて、共起調整の一般的な方法である。
近年,コーカサリティを意識した予測モデルが,共同設立者の調整のための代替因果関係に基づくアプローチとして提案されている。
基本的な考え方は、観測された共同設立者が生み出した刺激的な関連性から解放された反事実データをシミュレートすることである。
本稿では,反因果予測タスクにおける因果関係認識共起調整に対する線形残差化アプローチを比較し,線形学習者の予測性能において因果関係認識アプローチが(漸近的に)残差化調整より優れていることを示す。
重要なことは、真のモデルが線型でない場合でも、我々の結果は引き続き成り立つ。
本稿では, 線形回帰モデルを再同定する合成データ実験において, 因果認識と残差化のアプローチを平均二乗誤差と分類精度を用いて比較し, 線形回帰モデルが正しく特定された場合にも比較した。
さらに,共同創設者と結果変数の共分散におけるデータセットシフトに関して,因果認識アプローチが残留化よりも安定であることを示す。
関連論文リスト
- Bayesian Inference for Consistent Predictions in Overparameterized Nonlinear Regression [0.0]
本研究では,ベイズフレームワークにおける過パラメータ化非線形回帰の予測特性について検討した。
リプシッツ連続活性化関数を持つ一般化線形および単一ニューロンモデルに対して後部収縮が成立する。
提案手法は数値シミュレーションと実データアプリケーションを用いて検証した。
論文 参考訳(メタデータ) (2024-04-06T04:22:48Z) - Adaptive Optimization for Prediction with Missing Data [6.800113478497425]
適応線形回帰モデルの中には,命令規則と下流線形回帰モデルを同時に学習するのと等価なものもある。
ランダムにデータの欠落が強くない環境では,本手法はサンプル外精度を2~10%向上させる。
論文 参考訳(メタデータ) (2024-02-02T16:35:51Z) - Selective Nonparametric Regression via Testing [54.20569354303575]
本研究では,所定の点における条件分散の値に関する仮説を検証し,留置手順を開発する。
既存の手法とは異なり、提案手法は分散自体の値だけでなく、対応する分散予測器の不確実性についても考慮することができる。
論文 参考訳(メタデータ) (2023-09-28T13:04:11Z) - Kalman Filter for Online Classification of Non-Stationary Data [101.26838049872651]
オンライン連続学習(OCL)では、学習システムはデータのストリームを受け取り、予測とトレーニングの手順を順次実行する。
本稿では,線形予測量に対するニューラル表現と状態空間モデルを用いた確率ベイズオンライン学習モデルを提案する。
多クラス分類の実験では、モデルの予測能力と非定常性を捉える柔軟性を示す。
論文 参考訳(メタデータ) (2023-06-14T11:41:42Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Variation-Incentive Loss Re-weighting for Regression Analysis on Biased
Data [8.115323786541078]
モデルトレーニング中のデータ歪/バイアスに対処することで回帰分析の精度を向上させることを目的としている。
回帰分析のための勾配降下モデルトレーニングを最適化するために,変分集中損失再重み付け法(VILoss)を提案する。
論文 参考訳(メタデータ) (2021-09-14T10:22:21Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - CASTLE: Regularization via Auxiliary Causal Graph Discovery [89.74800176981842]
因果構造学習(CASTLE)の正規化を導入し,変数間の因果関係を共同学習することでニューラルネットワークの正規化を提案する。
CASTLEは因果的隣り合いを持つ因果的DAGの特徴のみを効率的に再構成する一方、再構成ベース正規化器は全ての入力特徴を過度に再構成する。
論文 参考訳(メタデータ) (2020-09-28T09:49:38Z) - Semi-Supervised Empirical Risk Minimization: Using unlabeled data to
improve prediction [4.860671253873579]
本稿では,経験的リスク最小化(Empirical Risk Minimization,ERM)学習プロセスの半教師付き学習(SSL)変種を設計するためにラベルのないデータを使用する一般的な手法を提案する。
我々は、予測性能の向上におけるSSLアプローチの有効性を分析した。
論文 参考訳(メタデータ) (2020-09-01T17:55:51Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - A Locally Adaptive Interpretable Regression [7.4267694612331905]
線形回帰は最も解釈可能な予測モデルの一つである。
本稿では,局所適応型解釈型回帰(LoAIR)を導入する。
我々のモデルは、他の最先端のベースラインと同等またはより良い予測性能を達成する。
論文 参考訳(メタデータ) (2020-05-07T09:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。