論文の概要: On the Interventional Kullback-Leibler Divergence
- arxiv url: http://arxiv.org/abs/2302.05380v1
- Date: Fri, 10 Feb 2023 17:03:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 15:16:52.255741
- Title: On the Interventional Kullback-Leibler Divergence
- Title(参考訳): kullback-leibler divergenceについて
- Authors: Jonas Wildberger, Siyuan Guo, Arnab Bhattacharyya, Bernhard
Sch\"olkopf
- Abstract要約: 因果モデル間の構造的差異と分布的差異を定量化するために、Interventional Kullback-Leibler divergenceを導入する。
本稿では,介入対象に対する十分な条件を提案し,モデルが確実に一致または一致しない観察変数のサブセットを同定する。
- 参考スコア(独自算出の注目度): 11.57430292133273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern machine learning approaches excel in static settings where a large
amount of i.i.d. training data are available for a given task. In a dynamic
environment, though, an intelligent agent needs to be able to transfer
knowledge and re-use learned components across domains. It has been argued that
this may be possible through causal models, aiming to mirror the modularity of
the real world in terms of independent causal mechanisms. However, the true
causal structure underlying a given set of data is generally not identifiable,
so it is desirable to have means to quantify differences between models (e.g.,
between the ground truth and an estimate), on both the observational and
interventional level.
In the present work, we introduce the Interventional Kullback-Leibler (IKL)
divergence to quantify both structural and distributional differences between
models based on a finite set of multi-environment distributions generated by
interventions from the ground truth. Since we generally cannot quantify all
differences between causal models for every finite set of interventional
distributions, we propose a sufficient condition on the intervention targets to
identify subsets of observed variables on which the models provably agree or
disagree.
- Abstract(参考訳): 現代の機械学習アプローチは、与えられたタスクに対して大量のi.d.トレーニングデータが利用できる静的な設定で優れている。
しかし、動的な環境では、インテリジェントエージェントは知識を転送し、ドメイン間で学習したコンポーネントを再利用する必要があります。
これは因果モデルによって可能であり、独立因果機構の観点から現実世界のモジュラリティを反映することを目的としていると論じられている。
しかし、与えられたデータの集合の根底にある真の因果構造は一般には特定できないので、観測レベルと介入レベルの両方でモデルの違い(例えば、地上の真実と推定値)を定量化する手段を持つことが望ましい。
本稿では,モデル間の構造的および分布的差異を基底真理からの介入によって生成される有限集合のマルチ環境分布に基づいて定量化するための介入的カルバック・ライバー(ikl)分岐法を提案する。
一般に、介入分布の有限集合ごとに因果モデル間のすべての差異を定量化できないので、介入対象に対する十分な条件を提案し、モデルが確実に一致または一致しない観察変数のサブセットを特定する。
関連論文リスト
- Identifiability Guarantees for Causal Disentanglement from Soft
Interventions [26.435199501882806]
因果解離は因果モデルを通して相互に関係する潜伏変数を用いてデータの表現を明らかにすることを目的としている。
本稿では,各介入が潜伏変数のメカニズムを変えることにより,未ペアの観測データと介入データが利用可能となるシナリオに焦点を当てる。
因果変数が完全に観測されると、忠実性の仮定の下で因果モデルを特定するために統計的に一貫したアルゴリズムが開発された。
論文 参考訳(メタデータ) (2023-07-12T15:39:39Z) - iSCAN: Identifying Causal Mechanism Shifts among Nonlinear Additive
Noise Models [48.33685559041322]
本稿では,同一変数集合上の2つ以上の関連するデータセットにおける因果メカニズムシフトの同定に焦点をあてる。
提案手法を実装したコードはオープンソースであり、https://github.com/kevinsbello/iSCAN.comで公開されている。
論文 参考訳(メタデータ) (2023-06-30T01:48:11Z) - Towards Characterizing Domain Counterfactuals For Invertible Latent
Causal Models [16.96946087576007]
制約の少ない仮定でドメインの偽物推定を改善することを目的としている。
ドメイン対実的に等価なモデルを定義し、等価なモデルに必要な十分な性質を証明します。
この驚くべき結果は、最後の$k$遅延変数にのみ介入できるモデル設計が、反ファクトのモデル推定を改善することを示唆している。
論文 参考訳(メタデータ) (2023-06-20T04:19:06Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Causal Discovery in Heterogeneous Environments Under the Sparse
Mechanism Shift Hypothesis [7.895866278697778]
機械学習のアプローチは、一般に独立で同一に分散されたデータ(すなわち、d)の仮定に依存する。
実際、この仮定は環境間の分散シフトによってほとんど常に破られる。
そこで我々は,様々な経験的推定器に適用可能なスコアベースアプローチであるメカニズムシフトスコア(MSS)を提案する。
論文 参考訳(メタデータ) (2022-06-04T15:39:30Z) - Causal Discovery in Linear Structural Causal Models with Deterministic
Relations [27.06618125828978]
我々は因果発見の課題と観察データに焦点をあてる。
因果構造の特異な識別に必要かつ十分な条件のセットを導出する。
論文 参考訳(メタデータ) (2021-10-30T21:32:42Z) - Partial Order in Chaos: Consensus on Feature Attributions in the
Rashomon Set [50.67431815647126]
ポストホックなグローバル/ローカルな特徴属性法は、機械学習モデルを理解するために徐々に採用されている。
この手法により局所的・言語的特徴の半順序が生じることを示す。
これらの部分的な順序に現れる特徴間の関係は、既存のアプローチによって提供されたランクにも当てはまることを示す。
論文 参考訳(メタデータ) (2021-10-26T02:53:14Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - A Critical View of the Structural Causal Model [89.43277111586258]
相互作用を全く考慮せずに原因と効果を識別できることが示される。
本稿では,因果モデルの絡み合った構造を模倣する新たな逆行訓練法を提案する。
我々の多次元手法は, 合成および実世界の両方のデータセットにおいて, 文献的手法よりも優れている。
論文 参考訳(メタデータ) (2020-02-23T22:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。