論文の概要: Causal Interpretability for Machine Learning -- Problems, Methods and
Evaluation
- arxiv url: http://arxiv.org/abs/2003.03934v3
- Date: Thu, 19 Mar 2020 20:23:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 07:57:45.123570
- Title: Causal Interpretability for Machine Learning -- Problems, Methods and
Evaluation
- Title(参考訳): 機械学習の因果解釈可能性-問題、方法、評価
- Authors: Raha Moraffah, Mansooreh Karami, Ruocheng Guo, Adrienne Raglin, Huan
Liu
- Abstract要約: ほとんどの機械学習モデルはブラックボックスであり、それらがどのように決定されるかは明確ではない。
これらのモデルの意思決定プロセスに関する洞察を提供するため、様々な従来の解釈可能なモデルが提案されている。
この研究では、因果的疑問に答えようとするモデルを因果的解釈可能なモデルと呼ぶ。
- 参考スコア(独自算出の注目度): 30.664546254344593
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models have had discernible achievements in a myriad of
applications. However, most of these models are black-boxes, and it is obscure
how the decisions are made by them. This makes the models unreliable and
untrustworthy. To provide insights into the decision making processes of these
models, a variety of traditional interpretable models have been proposed.
Moreover, to generate more human-friendly explanations, recent work on
interpretability tries to answer questions related to causality such as "Why
does this model makes such decisions?" or "Was it a specific feature that
caused the decision made by the model?". In this work, models that aim to
answer causal questions are referred to as causal interpretable models. The
existing surveys have covered concepts and methodologies of traditional
interpretability. In this work, we present a comprehensive survey on causal
interpretable models from the aspects of the problems and methods. In addition,
this survey provides in-depth insights into the existing evaluation metrics for
measuring interpretability, which can help practitioners understand for what
scenarios each evaluation metric is suitable.
- Abstract(参考訳): 機械学習モデルは、無数のアプリケーションで大きな成果を上げてきた。
しかし、これらのモデルのほとんどはブラックボックスであり、どのように意思決定されるかは不明である。
これにより、モデルは信頼できず、信頼できない。
これらのモデルの意思決定プロセスに関する洞察を提供するため、様々な解釈可能なモデルが提案されている。
さらに、より人間にやさしい説明を生み出すために、最近の解釈可能性に関する研究は、「なぜこのモデルはそのような決定をするのか」や「モデルによってなされた決定を引き起こす特定の特徴なのか」といった因果関係に関する質問に答えようとしている。
この研究では、因果的疑問に答えようとするモデルを因果的解釈可能なモデルと呼ぶ。
既存の調査は、従来の解釈可能性の概念と方法論をカバーしている。
本稿では,問題や手法の側面から,因果解釈可能なモデルに関する包括的調査を行う。
さらに、この調査は、解釈可能性を測定するための既存の評価基準に関する深い洞察を提供し、各評価基準が適合するシナリオを理解するのに役立つ。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Towards Interpretable Deep Reinforcement Learning Models via Inverse
Reinforcement Learning [27.841725567976315]
本稿では,逆逆強化学習を利用した新しいフレームワークを提案する。
このフレームワークは、強化学習モデルによる決定のグローバルな説明を提供する。
モデルの意思決定過程を要約することで、モデルが従う直感的な傾向を捉える。
論文 参考訳(メタデータ) (2022-03-30T17:01:59Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - When and How to Fool Explainable Models (and Humans) with Adversarial
Examples [1.439518478021091]
説明可能な機械学習モデルに対する敵攻撃の可能性と限界について検討する。
まず、逆例の概念を拡張して、説明可能な機械学習シナリオに適合する。
次に、説明可能なモデルに対して、逆例を生成できるかどうかを総合的に検討する枠組みを提案する。
論文 参考訳(メタデータ) (2021-07-05T11:20:55Z) - Individual Explanations in Machine Learning Models: A Case Study on
Poverty Estimation [63.18666008322476]
機械学習の手法は、敏感な社会的文脈でますます適用されつつある。
本研究の主な目的は2つある。
まず、これらの課題を公開し、関連性のある新しい説明方法の使用にどのように影響するか。
次に、関連するアプリケーションドメインで説明メソッドを実装する際に直面するような課題を軽減する一連の戦略を提示します。
論文 参考訳(メタデータ) (2021-04-09T01:54:58Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。