論文の概要: Latent Causal Invariant Model
- arxiv url: http://arxiv.org/abs/2011.02203v4
- Date: Tue, 27 Apr 2021 23:28:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 21:29:36.449458
- Title: Latent Causal Invariant Model
- Title(参考訳): 潜在因果不変量モデル
- Authors: Xinwei Sun, Botong Wu, Xiangyu Zheng, Chang Liu, Wei Chen, Tao Qin,
Tie-yan Liu
- Abstract要約: 現在の教師付き学習は、データ適合プロセス中に急激な相関を学習することができる。
因果予測を求める潜在因果不変モデル(LaCIM)を提案する。
- 参考スコア(独自算出の注目度): 128.7508609492542
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current supervised learning can learn spurious correlation during the
data-fitting process, imposing issues regarding interpretability,
out-of-distribution (OOD) generalization, and robustness. To avoid spurious
correlation, we propose a Latent Causal Invariance Model (LaCIM) which pursues
causal prediction. Specifically, we introduce latent variables that are
separated into (a) output-causative factors and (b) others that are spuriously
correlated to the output via confounders, to model the underlying causal
factors. We further assume the generating mechanisms from latent space to
observed data to be causally invariant. We give the identifiable claim of such
invariance, particularly the disentanglement of output-causative factors from
others, as a theoretical guarantee for precise inference and avoiding spurious
correlation. We propose a Variational-Bayesian-based method for estimation and
to optimize over the latent space for prediction. The utility of our approach
is verified by improved interpretability, prediction power on various OOD
scenarios (including healthcare) and robustness on security.
- Abstract(参考訳): 現在の教師付き学習は、データフィッティングプロセス中に、解釈可能性、分散(ood)一般化、ロバスト性に関する問題を引き起こすスプリアス相関を学習することができる。
そこで本研究では,因果予測を追求する潜在因果不分散モデル(lacim)を提案する。
具体的には、分割された潜伏変数を導入します。
(a)出力因果因子及び
(b) 根底にある因果要因をモデル化するため、共同設立者によるアウトプットと急激な相関関係を持つもの。
さらに、潜在空間から観測データへの生成機構は因果不変であると仮定する。
このような不変性の特定可能な主張、特に他者からの出力-因果要因の不連続を、正確な推論の理論的保証とスプリアス相関の回避として与える。
本稿では,変分ベイジアンに基づく推定手法を提案し,潜在空間上での予測を最適化する。
本手法の有効性は, 解釈可能性の向上, 様々なOODシナリオ(医療を含む)の予測能力, セキュリティの堅牢性によって検証される。
関連論文リスト
- Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Challenges in Variable Importance Ranking Under Correlation [6.718144470265263]
本稿では,特徴相関が変数重要度評価に与える影響を総合シミュレーションで検討する。
ノックオフ変数と対応する予測変数の間には相関関係は常に存在しないが、相関関係が予測変数間の特定の相関しきい値を超えて線形に増加することを証明している。
論文 参考訳(メタデータ) (2024-02-05T19:02:13Z) - Causality-oriented robustness: exploiting general additive interventions [3.871660145364189]
本稿では因果性指向のロバスト性に着目し,不変勾配(DRIG)を用いた分布ロバスト性を提案する。
線形環境では、DRIGがデータ依存の分布シフトのクラスの中で頑健な予測を得られることを証明している。
我々は、予測性能をさらに向上させるために、半教師付きドメイン適応設定にアプローチを拡張した。
論文 参考訳(メタデータ) (2023-07-18T16:22:50Z) - Identifiability Guarantees for Causal Disentanglement from Soft
Interventions [26.435199501882806]
因果解離は因果モデルを通して相互に関係する潜伏変数を用いてデータの表現を明らかにすることを目的としている。
本稿では,各介入が潜伏変数のメカニズムを変えることにより,未ペアの観測データと介入データが利用可能となるシナリオに焦点を当てる。
因果変数が完全に観測されると、忠実性の仮定の下で因果モデルを特定するために統計的に一貫したアルゴリズムが開発された。
論文 参考訳(メタデータ) (2023-07-12T15:39:39Z) - A Causal Ordering Prior for Unsupervised Representation Learning [27.18951912984905]
因果表現学習(Causal representation learning)は、データセットの変動の要因は、実際には因果関係にあると主張している。
本稿では,遅延付加雑音モデルを用いたデータ生成過程を考慮した,教師なし表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-11T18:12:05Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - Counterfactual Invariance to Spurious Correlations: Why and How to Pass
Stress Tests [87.60900567941428]
素早い相関」とは、アナリストが重要とすべきでないと考える入力データのある側面に対するモデルの依存である。
機械学習では、これらにはノウ・イ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ」という特徴がある。
因果推論ツールを用いたストレステストについて検討した。
論文 参考訳(メタデータ) (2021-05-31T14:39:38Z) - Learning Causal Semantic Representation for Out-of-Distribution
Prediction [125.38836464226092]
因果推論に基づく因果意味生成モデル(CSG)を提案し,その2つの要因を別々にモデル化する。
CSGはトレーニングデータに適合させることで意味的因子を識別できることを示し、この意味的識別はOOD一般化誤差の有界性を保証する。
論文 参考訳(メタデータ) (2020-11-03T13:16:05Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。