論文の概要: An Interpretable Probabilistic Approach for Demystifying Black-box
Predictive Models
- arxiv url: http://arxiv.org/abs/2007.10668v1
- Date: Tue, 21 Jul 2020 09:04:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:03:30.456192
- Title: An Interpretable Probabilistic Approach for Demystifying Black-box
Predictive Models
- Title(参考訳): ブラックボックス予測モデルに対する解釈可能な確率論的アプローチ
- Authors: Catarina Moreira and Yu-Liang Chou and Mythreyi Velmurugan and Chun
Ouyang and Renuka Sindhgatta and Peter Bruza
- Abstract要約: 批判的意思決定に洗練された機械学習モデルを使用することは、これらのモデルがしばしば「ブラックボックス」として適用されるという課題に直面している。
これにより、解釈可能な機械学習への関心が高まり、ポストホック解釈は複雑な学習モデルの解釈を生成するのに有用なメカニズムを示す。
我々は,ブラックボックス予測モデルのポストホック解釈を生成するため,ベイズネットワークの拡張フレームワークを基盤とした新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 2.0155921857858474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of sophisticated machine learning models for critical decision making
is faced with a challenge that these models are often applied as a "black-box".
This has led to an increased interest in interpretable machine learning, where
post hoc interpretation presents a useful mechanism for generating
interpretations of complex learning models. In this paper, we propose a novel
approach underpinned by an extended framework of Bayesian networks for
generating post hoc interpretations of a black-box predictive model. The
framework supports extracting a Bayesian network as an approximation of the
black-box model for a specific prediction. Compared to the existing post hoc
interpretation methods, the contribution of our approach is three-fold.
Firstly, the extracted Bayesian network, as a probabilistic graphical model,
can provide interpretations about not only what input features but also why
these features contributed to a prediction. Secondly, for complex decision
problems with many features, a Markov blanket can be generated from the
extracted Bayesian network to provide interpretations with a focused view on
those input features that directly contributed to a prediction. Thirdly, the
extracted Bayesian network enables the identification of four different rules
which can inform the decision-maker about the confidence level in a prediction,
thus helping the decision-maker assess the reliability of predictions learned
by a black-box model. We implemented the proposed approach, applied it in the
context of two well-known public datasets and analysed the results, which are
made available in an open-source repository.
- Abstract(参考訳): 批判的意思決定に洗練された機械学習モデルを使用することは、これらのモデルがしばしば「ブラックボックス」として適用されるという課題に直面している。
これにより解釈可能な機械学習への関心が高まり、ポストホック解釈は複雑な学習モデルの解釈を生成するのに有用なメカニズムとなる。
本稿では,ブラックボックス予測モデルのポストホック解釈を生成するため,ベイズネットワークの拡張フレームワークを基盤とした新しいアプローチを提案する。
このフレームワークは、特定の予測のためのブラックボックスモデルの近似としてベイズネットワークの抽出をサポートする。
既存のポストホック解釈手法と比較すると,このアプローチの貢献度は3倍である。
第一に、抽出したベイズネットワークは確率的グラフィカルモデルとして、どの入力特徴だけでなく、なぜこれらの特徴が予測に寄与したのかを解釈することができる。
第二に、多くの特徴を持つ複雑な決定問題に対して、マルコフ毛布を抽出したベイズネットワークから生成し、直接予測に寄与するこれらの入力特徴に焦点を絞った解釈を提供する。
第3に、抽出したベイズネットワークは、予測における信頼度を意思決定者に知らせる4つの異なるルールを識別し、ブラックボックスモデルで学習した予測の信頼性を評価する。
提案手法を実装し,よく知られた2つの公開データセットのコンテキストに適用し,その結果をオープンソースリポジトリで解析した。
関連論文リスト
- LLM Generated Distribution-Based Prediction of US Electoral Results, Part I [0.0]
本稿では,Large Language Models (LLM) を予測ツールとして利用するための新しいアプローチである分布ベース予測を紹介する。
我々は、近年のアメリカ合衆国大統領選挙の文脈において、分布に基づく予測の使用を実演する。
論文 参考訳(メタデータ) (2024-11-05T20:10:25Z) - Grouping Shapley Value Feature Importances of Random Forests for
explainable Yield Prediction [0.8543936047647136]
本稿では,特徴群に対して直接計算されたShapley値の概念を説明し,木構造上で効率的に計算するアルゴリズムを提案する。
我々は、グローバルな理解のために多くのローカルな説明を組み合わせてSwarmプロットを設計するための青写真を提供する。
論文 参考訳(メタデータ) (2023-04-14T13:03:33Z) - TsSHAP: Robust model agnostic feature-based explainability for time
series forecasting [6.004928390125367]
我々は,ブラックボックス予測モデルの予測を説明できる機能ベースの説明可能性アルゴリズムTsSHAPを提案する。
我々は、時系列予測の文脈において、局所的、半局所的、グローバルな説明の概念を定式化する。
論文 参考訳(メタデータ) (2023-03-22T05:14:36Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - Explainable AI Enabled Inspection of Business Process Prediction Models [2.5229940062544496]
本稿では,モデル説明を用いて,機械学習の予測によって適用された推論を解析する手法を提案する。
本手法の新たな貢献は,解釈可能な機械学習機構によって生成された説明と,過去のプロセス実行を記録するイベントログから抽出された文脈的,あるいはドメイン的知識の両方を活用するモデル検査の提案である。
論文 参考訳(メタデータ) (2021-07-16T06:51:18Z) - Partially Interpretable Estimators (PIE): Black-Box-Refined
Interpretable Machine Learning [5.479705009242287]
本稿では,各特徴に対する予測を解釈可能なモデルで特徴づける部分的解釈可能な推定子(pie)を提案する。
2種類のモデルを共同トレーニングするための反復トレーニングアルゴリズムを設計します。
実験の結果,PIEはブラックボックスモデルに対して高い競争力を示し,解釈可能なベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-05-06T03:06:34Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Probabilistic Graph Attention Network with Conditional Kernels for
Pixel-Wise Prediction [158.88345945211185]
本稿では,画素レベルの予測を基本的側面,すなわち,技術の現状を推し進める新たなアプローチを提案する。
構造化されたマルチスケール機能学習と融合。
本論文では,マルチスケール表現を原理的に学習・融合するための新しいアテンテンションゲート条件ランダムフィールド(AG-CRFs)モデルに基づく確率的グラフアテンションネットワーク構造を提案する。
論文 参考訳(メタデータ) (2021-01-08T04:14:29Z) - Probabilistic electric load forecasting through Bayesian Mixture Density
Networks [70.50488907591463]
確率的負荷予測(PLF)は、スマートエネルギーグリッドの効率的な管理に必要な拡張ツールチェーンの重要なコンポーネントです。
ベイジアン混合密度ネットワークを枠とした新しいPLFアプローチを提案する。
後方分布の信頼性と計算にスケーラブルな推定を行うため,平均場変動推定と深層アンサンブルを統合した。
論文 参考訳(メタデータ) (2020-12-23T16:21:34Z) - Understanding Neural Abstractive Summarization Models via Uncertainty [54.37665950633147]
seq2seq抽象要約モデルは、自由形式の方法でテキストを生成する。
モデルのトークンレベルの予測のエントロピー、すなわち不確実性について検討する。
要約とテキスト生成モデルをより広範囲に解析する上で,不確実性は有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:57:27Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。