論文の概要: Revisiting Counterfactual Regression through the Lens of Gromov-Wasserstein Information Bottleneck
- arxiv url: http://arxiv.org/abs/2405.15505v1
- Date: Fri, 24 May 2024 12:48:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 14:22:48.308716
- Title: Revisiting Counterfactual Regression through the Lens of Gromov-Wasserstein Information Bottleneck
- Title(参考訳): Gromov-Wasserstein Information Bottleneck のレンズによる非現実的回帰の再検討
- Authors: Hao Yang, Zexu Sun, Hongteng Xu, Xu Chen,
- Abstract要約: 我々はGromov-Wasserstein Information bottleneck (GWIB)と呼ばれる新しい学習パラダイムを提案する。
GWIBは最適化の交互化を通じてCFRモデルを効果的に学習し、自明な潜伏分布を避けながら選択バイアスを抑制する。
ITE推定タスクの実験では、GWIBは最先端のCFR法よりも一貫して優れていた。
- 参考スコア(独自算出の注目度): 30.31832773408621
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a promising individualized treatment effect (ITE) estimation method, counterfactual regression (CFR) maps individuals' covariates to a latent space and predicts their counterfactual outcomes. However, the selection bias between control and treatment groups often imbalances the two groups' latent distributions and negatively impacts this method's performance. In this study, we revisit counterfactual regression through the lens of information bottleneck and propose a novel learning paradigm called Gromov-Wasserstein information bottleneck (GWIB). In this paradigm, we learn CFR by maximizing the mutual information between covariates' latent representations and outcomes while penalizing the kernelized mutual information between the latent representations and the covariates. We demonstrate that the upper bound of the penalty term can be implemented as a new regularizer consisting of $i)$ the fused Gromov-Wasserstein distance between the latent representations of different groups and $ii)$ the gap between the transport cost generated by the model and the cross-group Gromov-Wasserstein distance between the latent representations and the covariates. GWIB effectively learns the CFR model through alternating optimization, suppressing selection bias while avoiding trivial latent distributions. Experiments on ITE estimation tasks show that GWIB consistently outperforms state-of-the-art CFR methods. To promote the research community, we release our project at https://github.com/peteryang1031/Causal-GWIB.
- Abstract(参考訳): 有望な個別化処理効果 (ITE) 推定法として, 対実回帰 (CFR) は個人の共変量を潜在空間にマッピングし, 対実結果を予測する。
しかしながら、制御群と処理群の選択バイアスは、しばしば2つのグループの潜伏分布を不均衡にし、この手法の性能に悪影響を及ぼす。
本研究では,情報ボトルネックのレンズを通して反事実回帰を再考し,Gromov-Wasserstein Information bottleneck (GWIB)と呼ばれる新たな学習パラダイムを提案する。
本パラダイムでは,共変量表現と共変量表現の相互情報の最大化と,共変量表現と共変量表現の相互情報の並列化によりCFRを学習する。
ペナルティ項の上限は、(i) 異なる群の潜在表現間の融合グロモフ=ワッセルシュタイン距離と(ii) モデルによって生成される輸送コストと、従属表現と共変数間のクロスグループグロモフ=ワッセルシュタイン距離とのギャップとからなる新しい正則化器として実装できることを実証する。
GWIBは最適化の交互化を通じてCFRモデルを効果的に学習し、自明な潜伏分布を避けながら選択バイアスを抑制する。
ITE推定タスクの実験では、GWIBは最先端のCFR法よりも一貫して優れていた。
研究コミュニティを促進するため、私たちはhttps://github.com/peteryang1031/Causal-GWIB.comでプロジェクトをリリースします。
関連論文リスト
- Kolmogorov-Smirnov GAN [52.36633001046723]
我々は、KSGAN(Kolmogorov-Smirnov Generative Adversarial Network)という新しい深層生成モデルを提案する。
既存のアプローチとは異なり、KSGANはKS距離の最小化として学習プロセスを定式化している。
論文 参考訳(メタデータ) (2024-06-28T14:30:14Z) - Collaborative Heterogeneous Causal Inference Beyond Meta-analysis [68.4474531911361]
異種データを用いた因果推論のための協調的逆確率スコア推定器を提案する。
異質性の増加に伴うメタアナリシスに基づく手法に対して,本手法は有意な改善を示した。
論文 参考訳(メタデータ) (2024-04-24T09:04:36Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Delta-AI: Local objectives for amortized inference in sparse graphical models [64.5938437823851]
スパース確率的グラフィカルモデル(PGM)における補正推論のための新しいアルゴリズムを提案する。
提案手法は, PGMにおける変数のサンプリングをエージェントが行う一連の行動とみなす場合, エージェントのポリシー学習目的において, PGMの疎結合が局所的な信用割当を可能にするという観察に基づいている。
合成PGMからサンプリングし、スパース因子構造を持つ潜在変数モデルを訓練するための$Delta$-AIの有効性について説明する。
論文 参考訳(メタデータ) (2023-10-03T20:37:03Z) - Prompt Tuning Pushes Farther, Contrastive Learning Pulls Closer: A
Two-Stage Approach to Mitigate Social Biases [13.837927115198308]
本稿では,コントラスト学習と連続的プロンプト拡張を用いた逆トレーニングによる2段階脱バイアスモデルを提案する。
我々のアプローチは、トレーニングプロセスに困難を加えることで、より強固なデバイアス性能を達成するためのモデルを導出します。
論文 参考訳(メタデータ) (2023-07-04T09:35:03Z) - CEnt: An Entropy-based Model-agnostic Explainability Framework to
Contrast Classifiers' Decisions [2.543865489517869]
我々は任意の分類器の予測を局所的に対比する新しい手法を提案する。
コントラストエントロピーに基づく説明法CEntは、決定木によって局所的にモデルを近似し、異なる特徴分割のエントロピー情報を算出する。
CEntは、不変性(人種など)と半不変性(年齢が増加する方向にしか変化しない)を満足しながら、トレーニングデータに必ずしも存在しない多様な反事実を生成する最初の非漸進的コントラスト法である。
論文 参考訳(メタデータ) (2023-01-19T08:23:34Z) - Auto-Encoding Goodness of Fit [11.543670549371361]
2段階の仮説テストを含むGoFAE(Goodness of Fit Autoencoder)を開発した。
GoFAEは、競合する深層生成モデルと同等のFIDスコアと平均2乗誤差を達成する。
論文 参考訳(メタデータ) (2022-10-12T19:21:57Z) - Bayes in Wonderland! Predictive supervised classification inference hits
unpredictability [1.8814209805277506]
デ・フィネッティ型の交換性の下でsBpcとmBpcの収束を示す。
また、分割交換可能なシーケンスを生じる生成モデルのパラメータ推定も行う。
論文 参考訳(メタデータ) (2021-12-03T12:34:52Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Preventing Posterior Collapse with Levenshtein Variational Autoencoder [61.30283661804425]
我々は,エビデンス・ロー・バウンド(ELBO)を最適化し,後部崩壊を防止できる新しい目的に置き換えることを提案する。
本稿では,Levenstein VAEが後方崩壊防止のための代替手法よりも,より情報的な潜伏表現を生成することを示す。
論文 参考訳(メタデータ) (2020-04-30T13:27:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。