論文の概要: Causal Dependence Plots for Interpretable Machine Learning
- arxiv url: http://arxiv.org/abs/2303.04209v1
- Date: Tue, 7 Mar 2023 20:00:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 16:04:12.741965
- Title: Causal Dependence Plots for Interpretable Machine Learning
- Title(参考訳): 解釈可能な機械学習のための因果依存プロット
- Authors: Joshua R. Loftus, Lucius E. J. Bynum, Sakina Hansen
- Abstract要約: 本研究では、入力変数の因果構造を既知のあるいは仮定し、教師付き学習モデルの単純かつ実践的な説明を生成することを提案する。
この因果依存性は、人間がインプット・アウトプット・依存についてよく考える方法をキャプチャするので、CDPは説明可能なAIや解釈可能なMLツールキットにおいて強力なツールになり得る。
- 参考スコア(独自算出の注目度): 1.6114012813668934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explaining artificial intelligence or machine learning models is an
increasingly important problem. For humans to stay in the loop and control such
systems, we must be able to understand how they interact with the world. This
work proposes using known or assumed causal structure in the input variables to
produce simple and practical explanations of supervised learning models. Our
explanations -- which we name Causal Dependence Plots or CDP -- visualize how
the model output depends on changes in a given predictor \emph{along with any
consequent causal changes in other predictors}. Since this causal dependence
captures how humans often think about input-output dependence, CDPs can be
powerful tools in the explainable AI or interpretable ML toolkit and contribute
to applications including scientific machine learning and algorithmic fairness.
CDP can also be used for model-agnostic or black-box explanations.
- Abstract(参考訳): 人工知能や機械学習モデルを説明することは、ますます重要な問題である。
人間はループに留まり、そのようなシステムを制御するためには、どのように世界と相互作用するかを理解する必要がある。
本研究では、入力変数の因果構造を既知のあるいは仮定し、教師付き学習モデルの単純かつ実践的な説明を生成することを提案する。
私たちがCausal Dependence Plots(CDP)と呼ぶ私たちの説明は、モデル出力が与えられた予測子 \emph{along の変化にどのように依存するかを可視化し、他の予測子に連続した因果変化がある。
この因果依存は、人間が入出力依存をどう考えるかを捉えているため、cdpは説明可能なaiや解釈可能なmlツールキットの強力なツールとなり、科学的機械学習やアルゴリズムの公平性といったアプリケーションに貢献する。
CDPはモデルに依存しない説明やブラックボックスの説明にも使える。
関連論文リスト
- Mechanism learning: Reverse causal inference in the presence of multiple unknown confounding through front-door causal bootstrapping [0.8901073744693314]
機械学習(ML)予測モデルの最大の制限は、変数間の因果関係ではなく、関連性を取り戻すことである。
本稿では,前向きの因果ブートストラップを用いて観測データを分解する機構学習を提案する。
提案手法は,完全合成,半合成,実世界のデータセットを用いて,信頼性,不偏性,因果的ML予測器を検出できることを実証する。
論文 参考訳(メタデータ) (2024-10-26T03:34:55Z) - Identifiable Causal Representation Learning: Unsupervised, Multi-View, and Multi-Environment [10.814585613336778]
因果表現学習は、機械学習のコアとなる強みと因果性を組み合わせることを目的としている。
この論文は、CRLが直接の監督なしに何が可能であるかを調査し、理論的基礎に寄与する。
論文 参考訳(メタデータ) (2024-06-19T09:14:40Z) - The Causal Chambers: Real Physical Systems as a Testbed for AI Methodology [10.81691411087626]
AI、機械学習、統計学のいくつかの分野において、新しい方法やアルゴリズムの検証は、適切な実世界のデータセットの不足によって妨げられることが多い。
我々は,非自明だがよく理解された物理的システムから,大規模データセットを迅速かつ安価に生成できる2つのデバイスを構築した。
論文 参考訳(メタデータ) (2024-04-17T13:00:52Z) - A Causal Ordering Prior for Unsupervised Representation Learning [27.18951912984905]
因果表現学習(Causal representation learning)は、データセットの変動の要因は、実際には因果関係にあると主張している。
本稿では,遅延付加雑音モデルを用いたデータ生成過程を考慮した,教師なし表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-11T18:12:05Z) - A Causal Framework for Decomposing Spurious Variations [68.12191782657437]
我々はマルコフモデルとセミマルコフモデルの急激な変分を分解するツールを開発する。
突発効果の非パラメトリック分解を可能にする最初の結果を証明する。
説明可能なAIや公平なAIから、疫学や医学における疑問まで、いくつかの応用がある。
論文 参考訳(メタデータ) (2023-06-08T09:40:28Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Counterfactual Invariance to Spurious Correlations: Why and How to Pass
Stress Tests [87.60900567941428]
素早い相関」とは、アナリストが重要とすべきでないと考える入力データのある側面に対するモデルの依存である。
機械学習では、これらにはノウ・イ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ」という特徴がある。
因果推論ツールを用いたストレステストについて検討した。
論文 参考訳(メタデータ) (2021-05-31T14:39:38Z) - Causal Discovery in Physical Systems from Videos [123.79211190669821]
因果発見は人間の認知の中心にある。
本研究では,ビデオの因果発見の課題を,地層構造を監督せずにエンドツーエンドで検討する。
論文 参考訳(メタデータ) (2020-07-01T17:29:57Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。