論文の概要: Mechanism learning: Reverse causal inference in the presence of multiple unknown confounding through front-door causal bootstrapping
- arxiv url: http://arxiv.org/abs/2410.20057v1
- Date: Sat, 26 Oct 2024 03:34:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:16:09.214865
- Title: Mechanism learning: Reverse causal inference in the presence of multiple unknown confounding through front-door causal bootstrapping
- Title(参考訳): メカニズム学習:フロントドアの因果ブートストラップを通した複数の未知存在下での逆因果推論
- Authors: Jianqiao Mao, Max A. Little,
- Abstract要約: 機械学習(ML)予測モデルの最大の制限は、変数間の因果関係ではなく、関連性を取り戻すことである。
本稿では,前向きの因果ブートストラップを用いて観測データを分解する機構学習を提案する。
提案手法は,完全合成,半合成,実世界のデータセットを用いて,信頼性,不偏性,因果的ML予測器を検出できることを実証する。
- 参考スコア(独自算出の注目度): 0.8901073744693314
- License:
- Abstract: A major limitation of machine learning (ML) prediction models is that they recover associational, rather than causal, predictive relationships between variables. In high-stakes automation applications of ML this is problematic, as the model often learns spurious, non-causal associations. This paper proposes mechanism learning, a simple method which uses front-door causal bootstrapping to deconfound observational data such that any appropriate ML model is forced to learn predictive relationships between effects and their causes (reverse causal inference), despite the potential presence of multiple unknown and unmeasured confounding. Effect variables can be very high dimensional, and the predictive relationship nonlinear, as is common in ML applications. This novel method is widely applicable, the only requirement is the existence of a mechanism variable mediating the cause (prediction target) and effect (feature data), which is independent of the (unmeasured) confounding variables. We test our method on fully synthetic, semi-synthetic and real-world datasets, demonstrating that it can discover reliable, unbiased, causal ML predictors where by contrast, the same ML predictor trained naively using classical supervised learning on the original observational data, is heavily biased by spurious associations. We provide code to implement the results in the paper, online.
- Abstract(参考訳): 機械学習(ML)予測モデルの最大の制限は、変数間の因果関係ではなく、関連性を取り戻すことである。
MLの高度な自動化アプリケーションでは、しばしば素早い非因果関係を学習するため、これは問題となる。
本稿では,複数の未知および未測定の共起が存在するにもかかわらず,任意のMLモデルが影響と原因(逆因果推論)の予測関係を学習せざるを得ないように,前向きの因果ブートストラップを用いて観測データを分解する機構学習を提案する。
効果変数は非常に高次元であり、予測関係は、MLアプリケーションでよく見られる非線形である。
この新しい方法は広く適用でき、唯一の要件は原因(予測対象)と効果(特徴データ)を媒介するメカニズム変数の存在である。
提案手法は,完全合成,半合成,実世界のデータセットで検証し,信頼性,バイアスのない,因果予測を検出できることを実証した。
オンラインの論文で結果を実装するためのコードを提供しています。
関連論文リスト
- The Multiple Dimensions of Spuriousness in Machine Learning [3.475875199871536]
データからの相関学習は、今日の機械学習(ML)と人工知能(AI)研究の基礎となる。
このようなアプローチは、ビッグデータコーパス内のパターン付き関係の自動発見を可能にするが、意図しない相関が捕捉された場合、障害モードの影響を受けやすい。
この脆弱性は、しばしば、パフォーマンス、公平性、堅牢性をモデル化する障害として批判される、急進性の尋問への関心を拡大した。
論文 参考訳(メタデータ) (2024-11-07T13:29:32Z) - Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - The Implicit Bias of Heterogeneity towards Invariance and Causality [10.734620509375144]
回帰損失の変種を訓練した大規模言語モデル(LLM)は,ある程度の因果関係を明らかにすることができる。
これは「因果関係は因果関係ではない」という伝統的な知恵と伝統的な因果推論のパラダイムに反する。
本稿では,アソシエーション指向トレーニングによる因果関係の出現は,情報源データからのカップリング効果に起因していると主張している。
論文 参考訳(メタデータ) (2024-03-03T07:38:24Z) - Can predictive models be used for causal inference? [0.0]
Supervised Machine Learning (ML)とDeep Learning (DL)アルゴリズムは予測タスクで優れている。
一般に、それらは非因果関係を利用して行うと仮定される。
この説明と予測のトレードオフは、期待したほど深く、根本的ではないことを示す。
論文 参考訳(メタデータ) (2023-06-18T13:11:36Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - A Causal Framework for Decomposing Spurious Variations [68.12191782657437]
我々はマルコフモデルとセミマルコフモデルの急激な変分を分解するツールを開発する。
突発効果の非パラメトリック分解を可能にする最初の結果を証明する。
説明可能なAIや公平なAIから、疫学や医学における疑問まで、いくつかの応用がある。
論文 参考訳(メタデータ) (2023-06-08T09:40:28Z) - The worst of both worlds: A comparative analysis of errors in learning
from data in psychology and machine learning [17.336655978572583]
機械学習(ML)が誤診や複製の危機に直面しているという最近の懸念は、ML研究で公表された主張の一部が対面価値で評価できないことを示唆している。
教師付きMLにおける研究の関心事は、実験科学における複製危機と共通している。
論文 参考訳(メタデータ) (2022-03-12T18:26:24Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z) - Efficient Causal Inference from Combined Observational and
Interventional Data through Causal Reductions [68.6505592770171]
因果効果を推定する際の主な課題の1つである。
そこで本研究では,任意の数の高次元潜入共創者を置き換える新たな因果還元法を提案する。
パラメータ化縮小モデルを観測データと介入データから共同で推定する学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T14:29:07Z) - The Predictive Normalized Maximum Likelihood for Over-parameterized
Linear Regression with Norm Constraint: Regret and Double Descent [12.929639356256928]
現代の機械学習モデルは、予測規則の複雑さとその一般化能力の間のトレードオフに従わないことを示す。
最近提案された予測正規化最大値 (pNML) は、個々のデータに対するmin-max後悔解である。
我々は,pNML後悔を合成データ上でのポイントワイド学習可能性尺度として使用し,二重発生現象の予測に成功していることを示す。
論文 参考訳(メタデータ) (2021-02-14T15:49:04Z) - Localized Debiased Machine Learning: Efficient Inference on Quantile
Treatment Effects and Beyond [69.83813153444115]
因果推論における(局所)量子化処理効果((L)QTE)の効率的な推定式を検討する。
Debiased Machine Learning (DML)は、高次元のニュアンスを推定するデータ分割手法である。
本稿では、この負担のかかるステップを避けるために、局所的脱バイアス機械学習(LDML)を提案する。
論文 参考訳(メタデータ) (2019-12-30T14:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。