論文の概要: De-confounding Representation Learning for Counterfactual Inference on
Continuous Treatment via Generative Adversarial Network
- arxiv url: http://arxiv.org/abs/2307.12625v1
- Date: Mon, 24 Jul 2023 08:56:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 15:04:44.059540
- Title: De-confounding Representation Learning for Counterfactual Inference on
Continuous Treatment via Generative Adversarial Network
- Title(参考訳): 生成的逆数ネットワークによる連続処理における対実的推論のためのデコンバウンディング表現学習
- Authors: Yonghe Zhao, Qiang Huang, Haolong Zeng, Yun Pen, Huiyan Sun
- Abstract要約: 実世界の因果推論タスクでは、二項処理変数よりも連続的な因果推論の方が一般的である。
本稿では,連続処理の現実的結果推定のための分散表現学習(DRL)フレームワークを提案する。
DRLモデルは,非衝突表現の学習において優れた性能を示し,連続処理変数に対する最先端の反実的推論モデルよりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 5.465397606401007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactual inference for continuous rather than binary treatment
variables is more common in real-world causal inference tasks. While there are
already some sample reweighting methods based on Marginal Structural Model for
eliminating the confounding bias, they generally focus on removing the
treatment's linear dependence on confounders and rely on the accuracy of the
assumed parametric models, which are usually unverifiable. In this paper, we
propose a de-confounding representation learning (DRL) framework for
counterfactual outcome estimation of continuous treatment by generating the
representations of covariates disentangled with the treatment variables. The
DRL is a non-parametric model that eliminates both linear and nonlinear
dependence between treatment and covariates. Specifically, we train the
correlations between the de-confounded representations and the treatment
variables against the correlations between the covariate representations and
the treatment variables to eliminate confounding bias. Further, a
counterfactual inference network is embedded into the framework to make the
learned representations serve both de-confounding and trusted inference.
Extensive experiments on synthetic datasets show that the DRL model performs
superiorly in learning de-confounding representations and outperforms
state-of-the-art counterfactual inference models for continuous treatment
variables. In addition, we apply the DRL model to a real-world medical dataset
MIMIC and demonstrate a detailed causal relationship between red cell width
distribution and mortality.
- Abstract(参考訳): バイナリ処理変数ではなく連続的な推論は、実世界の因果推論タスクでより一般的である。
結合バイアスを取り除くための辺縁構造モデルに基づくサンプル再重み付け手法はすでにいくつか存在するが、一般的には、治療の共起者への線形依存の除去と、通常検証不能な仮定パラメトリックモデルの精度に依存することに焦点をあてている。
本稿では,処理変数に絡み合った共変量の表現を生成し,連続処理の反事実的結果推定のためのデコンファウンディング表現学習(drl)フレームワークを提案する。
drlは非パラメトリックモデルであり、処理と共変量の間の線形および非線形の依存を取り除く。
具体的には,共変量表現と処理変数との相関関係を訓練することで,共変量表現と処理変数との相関関係を解消する。
さらに、フレームワークに反ファクト推論ネットワークを組み込んで、学習された表現をデコンバウンディングと信頼された推論の両方に役立てる。
合成データセットに関する大規模な実験により、DRLモデルは非衝突表現の学習において優れた性能を示し、連続的な処理変数に対する最先端の反実的推論モデルよりも優れていた。
さらに、DRLモデルを実世界の医療データセットMIMICに適用し、赤血球幅分布と死亡率の詳細な因果関係を示す。
関連論文リスト
- CATE Lasso: Conditional Average Treatment Effect Estimation with
High-Dimensional Linear Regression [18.628644958430076]
条件平均治療効果(CATE)は、個々の因果効果を表す量として重要な役割を果たす。
本研究では,高次元および非スパースパラメータの下でも連続的にCATEを推定する手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T17:51:07Z) - A Causal Ordering Prior for Unsupervised Representation Learning [27.18951912984905]
因果表現学習(Causal representation learning)は、データセットの変動の要因は、実際には因果関係にあると主張している。
本稿では,遅延付加雑音モデルを用いたデータ生成過程を考慮した,教師なし表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-11T18:12:05Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Continuous-Time Modeling of Counterfactual Outcomes Using Neural
Controlled Differential Equations [84.42837346400151]
反現実的な結果を予測することは、パーソナライズされたヘルスケアをアンロックする可能性がある。
既存の因果推論アプローチでは、観察と治療決定の間の通常の離散時間間隔が考慮されている。
そこで本研究では,腫瘍増殖モデルに基づく制御可能なシミュレーション環境を提案する。
論文 参考訳(メタデータ) (2022-06-16T17:15:15Z) - Dimension-Free Average Treatment Effect Inference with Deep Neural
Networks [6.704751710867747]
本稿では,Deep Neural Network (DNN) を用いた平均治療効果 (ATE) の推定と推定について検討する。
本稿では, ATE の DNN 推定値と次元自由整合率との整合性を示す。
論文 参考訳(メタデータ) (2021-12-02T19:28:37Z) - Harmonization with Flow-based Causal Inference [12.739380441313022]
本稿では, 医療データを調和させる構造因果モデル (SCM) に対して, 反実的推論を行う正規化フローに基づく手法を提案する。
我々は,この手法が最先端のアルゴリズムよりもドメイン間一般化に寄与することを示すために,複数の,大規模な実世界の医療データセットを評価した。
論文 参考訳(メタデータ) (2021-06-12T19:57:35Z) - Efficient Causal Inference from Combined Observational and
Interventional Data through Causal Reductions [68.6505592770171]
因果効果を推定する際の主な課題の1つである。
そこで本研究では,任意の数の高次元潜入共創者を置き換える新たな因果還元法を提案する。
パラメータ化縮小モデルを観測データと介入データから共同で推定する学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T14:29:07Z) - DeepRite: Deep Recurrent Inverse TreatmEnt Weighting for Adjusting
Time-varying Confounding in Modern Longitudinal Observational Data [68.29870617697532]
時系列データにおける時間変化の相違に対するDeep Recurrent Inverse TreatmEnt重み付け(DeepRite)を提案する。
DeepRiteは、合成データから基底的真理を復元し、実際のデータから偏りのない処理効果を推定する。
論文 参考訳(メタデータ) (2020-10-28T15:05:08Z) - On Disentangled Representations Learned From Correlated Data [59.41587388303554]
相関データに対する最も顕著な絡み合うアプローチの挙動を解析することにより、現実のシナリオにギャップを埋める。
本研究では,データセットの体系的相関が学習され,潜在表現に反映されていることを示す。
また、トレーニング中の弱い監督や、少数のラベルで事前訓練されたモデルを修正することで、これらの潜伏相関を解消する方法を実証する。
論文 参考訳(メタデータ) (2020-06-14T12:47:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。