論文の概要: On the Interventional Kullback-Leibler Divergence
- arxiv url: http://arxiv.org/abs/2302.05380v1
- Date: Fri, 10 Feb 2023 17:03:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 15:16:52.255741
- Title: On the Interventional Kullback-Leibler Divergence
- Title(参考訳): kullback-leibler divergenceについて
- Authors: Jonas Wildberger, Siyuan Guo, Arnab Bhattacharyya, Bernhard
Sch\"olkopf
- Abstract要約: 因果モデル間の構造的差異と分布的差異を定量化するために、Interventional Kullback-Leibler divergenceを導入する。
本稿では,介入対象に対する十分な条件を提案し,モデルが確実に一致または一致しない観察変数のサブセットを同定する。
- 参考スコア(独自算出の注目度): 11.57430292133273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern machine learning approaches excel in static settings where a large
amount of i.i.d. training data are available for a given task. In a dynamic
environment, though, an intelligent agent needs to be able to transfer
knowledge and re-use learned components across domains. It has been argued that
this may be possible through causal models, aiming to mirror the modularity of
the real world in terms of independent causal mechanisms. However, the true
causal structure underlying a given set of data is generally not identifiable,
so it is desirable to have means to quantify differences between models (e.g.,
between the ground truth and an estimate), on both the observational and
interventional level.
In the present work, we introduce the Interventional Kullback-Leibler (IKL)
divergence to quantify both structural and distributional differences between
models based on a finite set of multi-environment distributions generated by
interventions from the ground truth. Since we generally cannot quantify all
differences between causal models for every finite set of interventional
distributions, we propose a sufficient condition on the intervention targets to
identify subsets of observed variables on which the models provably agree or
disagree.
- Abstract(参考訳): 現代の機械学習アプローチは、与えられたタスクに対して大量のi.d.トレーニングデータが利用できる静的な設定で優れている。
しかし、動的な環境では、インテリジェントエージェントは知識を転送し、ドメイン間で学習したコンポーネントを再利用する必要があります。
これは因果モデルによって可能であり、独立因果機構の観点から現実世界のモジュラリティを反映することを目的としていると論じられている。
しかし、与えられたデータの集合の根底にある真の因果構造は一般には特定できないので、観測レベルと介入レベルの両方でモデルの違い(例えば、地上の真実と推定値)を定量化する手段を持つことが望ましい。
本稿では,モデル間の構造的および分布的差異を基底真理からの介入によって生成される有限集合のマルチ環境分布に基づいて定量化するための介入的カルバック・ライバー(ikl)分岐法を提案する。
一般に、介入分布の有限集合ごとに因果モデル間のすべての差異を定量化できないので、介入対象に対する十分な条件を提案し、モデルが確実に一致または一致しない観察変数のサブセットを特定する。
関連論文リスト
- Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - Counterfactual Fairness through Transforming Data Orthogonal to Bias [7.109458605736819]
我々は新しいデータ前処理アルゴリズムOrthogonal to Bias (OB)を提案する。
OBは、連続的な敏感な変数群の影響を排除し、機械学習アプリケーションにおける反ファクトフェアネスを促進するように設計されている。
OBはモデルに依存しないため、幅広い機械学習モデルやタスクに適用できる。
論文 参考訳(メタデータ) (2024-03-26T16:40:08Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Identifiability Guarantees for Causal Disentanglement from Soft
Interventions [26.435199501882806]
因果解離は因果モデルを通して相互に関係する潜伏変数を用いてデータの表現を明らかにすることを目的としている。
本稿では,各介入が潜伏変数のメカニズムを変えることにより,未ペアの観測データと介入データが利用可能となるシナリオに焦点を当てる。
因果変数が完全に観測されると、忠実性の仮定の下で因果モデルを特定するために統計的に一貫したアルゴリズムが開発された。
論文 参考訳(メタデータ) (2023-07-12T15:39:39Z) - iSCAN: Identifying Causal Mechanism Shifts among Nonlinear Additive
Noise Models [48.33685559041322]
本稿では,同一変数集合上の2つ以上の関連するデータセットにおける因果メカニズムシフトの同定に焦点をあてる。
提案手法を実装したコードはオープンソースであり、https://github.com/kevinsbello/iSCAN.comで公開されている。
論文 参考訳(メタデータ) (2023-06-30T01:48:11Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Causal Discovery in Heterogeneous Environments Under the Sparse
Mechanism Shift Hypothesis [7.895866278697778]
機械学習のアプローチは、一般に独立で同一に分散されたデータ(すなわち、d)の仮定に依存する。
実際、この仮定は環境間の分散シフトによってほとんど常に破られる。
そこで我々は,様々な経験的推定器に適用可能なスコアベースアプローチであるメカニズムシフトスコア(MSS)を提案する。
論文 参考訳(メタデータ) (2022-06-04T15:39:30Z) - Causal Discovery in Linear Structural Causal Models with Deterministic
Relations [27.06618125828978]
我々は因果発見の課題と観察データに焦点をあてる。
因果構造の特異な識別に必要かつ十分な条件のセットを導出する。
論文 参考訳(メタデータ) (2021-10-30T21:32:42Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。