論文の概要: De-confounding Representation Learning for Counterfactual Inference on
Continuous Treatment via Generative Adversarial Network
- arxiv url: http://arxiv.org/abs/2307.12625v1
- Date: Mon, 24 Jul 2023 08:56:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 15:04:44.059540
- Title: De-confounding Representation Learning for Counterfactual Inference on
Continuous Treatment via Generative Adversarial Network
- Title(参考訳): 生成的逆数ネットワークによる連続処理における対実的推論のためのデコンバウンディング表現学習
- Authors: Yonghe Zhao, Qiang Huang, Haolong Zeng, Yun Pen, Huiyan Sun
- Abstract要約: 実世界の因果推論タスクでは、二項処理変数よりも連続的な因果推論の方が一般的である。
本稿では,連続処理の現実的結果推定のための分散表現学習(DRL)フレームワークを提案する。
DRLモデルは,非衝突表現の学習において優れた性能を示し,連続処理変数に対する最先端の反実的推論モデルよりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 5.465397606401007
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactual inference for continuous rather than binary treatment
variables is more common in real-world causal inference tasks. While there are
already some sample reweighting methods based on Marginal Structural Model for
eliminating the confounding bias, they generally focus on removing the
treatment's linear dependence on confounders and rely on the accuracy of the
assumed parametric models, which are usually unverifiable. In this paper, we
propose a de-confounding representation learning (DRL) framework for
counterfactual outcome estimation of continuous treatment by generating the
representations of covariates disentangled with the treatment variables. The
DRL is a non-parametric model that eliminates both linear and nonlinear
dependence between treatment and covariates. Specifically, we train the
correlations between the de-confounded representations and the treatment
variables against the correlations between the covariate representations and
the treatment variables to eliminate confounding bias. Further, a
counterfactual inference network is embedded into the framework to make the
learned representations serve both de-confounding and trusted inference.
Extensive experiments on synthetic datasets show that the DRL model performs
superiorly in learning de-confounding representations and outperforms
state-of-the-art counterfactual inference models for continuous treatment
variables. In addition, we apply the DRL model to a real-world medical dataset
MIMIC and demonstrate a detailed causal relationship between red cell width
distribution and mortality.
- Abstract(参考訳): バイナリ処理変数ではなく連続的な推論は、実世界の因果推論タスクでより一般的である。
結合バイアスを取り除くための辺縁構造モデルに基づくサンプル再重み付け手法はすでにいくつか存在するが、一般的には、治療の共起者への線形依存の除去と、通常検証不能な仮定パラメトリックモデルの精度に依存することに焦点をあてている。
本稿では,処理変数に絡み合った共変量の表現を生成し,連続処理の反事実的結果推定のためのデコンファウンディング表現学習(drl)フレームワークを提案する。
drlは非パラメトリックモデルであり、処理と共変量の間の線形および非線形の依存を取り除く。
具体的には,共変量表現と処理変数との相関関係を訓練することで,共変量表現と処理変数との相関関係を解消する。
さらに、フレームワークに反ファクト推論ネットワークを組み込んで、学習された表現をデコンバウンディングと信頼された推論の両方に役立てる。
合成データセットに関する大規模な実験により、DRLモデルは非衝突表現の学習において優れた性能を示し、連続的な処理変数に対する最先端の反実的推論モデルよりも優れていた。
さらに、DRLモデルを実世界の医療データセットMIMICに適用し、赤血球幅分布と死亡率の詳細な因果関係を示す。
関連論文リスト
- Contrastive Balancing Representation Learning for Heterogeneous Dose-Response Curves Estimation [34.20279432270329]
治療量の変化に対する個人の潜在的反応を推定することは、精密医療や管理科学などの分野における意思決定に不可欠である。
異種線量応答曲線を推定するために,CRNetと呼ばれる部分距離測度を用いたコントラストバランス表現学習ネットワークを提案する。
論文 参考訳(メタデータ) (2024-03-21T08:41:53Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Rethinking Radiology Report Generation via Causal Inspired Counterfactual Augmentation [11.266364967223556]
放射線医学報告生成(RRG)は、生体医学分野の視覚・言語相互作用として注目されている。
従来の言語生成タスクのイデオロギーは、レポートとして高い可読性を持つ段落を生成することを目的として、従来の言語生成タスクのイデオロギーを継承した。
RRGの特定の性質である病気間の独立性は無視され、偏りのあるデータ分布によって引き起こされる病気の共起によってモデルが混乱する結果となった。
論文 参考訳(メタデータ) (2023-11-22T10:55:36Z) - A Causal Ordering Prior for Unsupervised Representation Learning [27.18951912984905]
因果表現学習(Causal representation learning)は、データセットの変動の要因は、実際には因果関係にあると主張している。
本稿では,遅延付加雑音モデルを用いたデータ生成過程を考慮した,教師なし表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-11T18:12:05Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Continuous-Time Modeling of Counterfactual Outcomes Using Neural
Controlled Differential Equations [84.42837346400151]
反現実的な結果を予測することは、パーソナライズされたヘルスケアをアンロックする可能性がある。
既存の因果推論アプローチでは、観察と治療決定の間の通常の離散時間間隔が考慮されている。
そこで本研究では,腫瘍増殖モデルに基づく制御可能なシミュレーション環境を提案する。
論文 参考訳(メタデータ) (2022-06-16T17:15:15Z) - Dimension-Free Average Treatment Effect Inference with Deep Neural
Networks [6.704751710867747]
本稿では,Deep Neural Network (DNN) を用いた平均治療効果 (ATE) の推定と推定について検討する。
本稿では, ATE の DNN 推定値と次元自由整合率との整合性を示す。
論文 参考訳(メタデータ) (2021-12-02T19:28:37Z) - Harmonization with Flow-based Causal Inference [12.739380441313022]
本稿では, 医療データを調和させる構造因果モデル (SCM) に対して, 反実的推論を行う正規化フローに基づく手法を提案する。
我々は,この手法が最先端のアルゴリズムよりもドメイン間一般化に寄与することを示すために,複数の,大規模な実世界の医療データセットを評価した。
論文 参考訳(メタデータ) (2021-06-12T19:57:35Z) - Efficient Causal Inference from Combined Observational and
Interventional Data through Causal Reductions [68.6505592770171]
因果効果を推定する際の主な課題の1つである。
そこで本研究では,任意の数の高次元潜入共創者を置き換える新たな因果還元法を提案する。
パラメータ化縮小モデルを観測データと介入データから共同で推定する学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T14:29:07Z) - On Disentangled Representations Learned From Correlated Data [59.41587388303554]
相関データに対する最も顕著な絡み合うアプローチの挙動を解析することにより、現実のシナリオにギャップを埋める。
本研究では,データセットの体系的相関が学習され,潜在表現に反映されていることを示す。
また、トレーニング中の弱い監督や、少数のラベルで事前訓練されたモデルを修正することで、これらの潜伏相関を解消する方法を実証する。
論文 参考訳(メタデータ) (2020-06-14T12:47:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。