論文の概要: Black Box Model Explanations and the Human Interpretability Expectations -- An Analysis in the Context of Homicide Prediction
- arxiv url: http://arxiv.org/abs/2210.10849v2
- Date: Thu, 4 Jul 2024 12:39:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 03:22:23.546248
- Title: Black Box Model Explanations and the Human Interpretability Expectations -- An Analysis in the Context of Homicide Prediction
- Title(参考訳): ブラックボックスモデルの説明と人間の解釈可能性期待 -殺人予測の文脈における分析-
- Authors: José Ribeiro, Níkolas Carneiro, Ronnie Alves,
- Abstract要約: 説明可能な人工知能(XAI)に基づく戦略は、ブラックボックスモデルの結果のより良い人間の解釈可能性を促進する。
本研究は、殺人予測に関連する現実世界の分類問題に対処する。
6つの異なるXAI手法を使って説明をし、6つの異なる人間の専門家を作成した。
- 参考スコア(独自算出の注目度): 0.5898893619901381
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Strategies based on Explainable Artificial Intelligence (XAI) have promoted better human interpretability of the results of black box models. This opens up the possibility of questioning whether explanations created by XAI methods meet human expectations. The XAI methods being currently used (Ciu, Dalex, Eli5, Lofo, Shap, and Skater) provide various forms of explanations, including global rankings of relevance of features, which allow for an overview of how the model is explained as a result of its inputs and outputs. These methods provide for an increase in the explainability of the model and a greater interpretability grounded on the context of the problem. Intending to shed light on the explanations generated by XAI methods and their interpretations, this research addresses a real-world classification problem related to homicide prediction, already peer-validated, replicated its proposed black box model and used 6 different XAI methods to generate explanations and 6 different human experts. The results were generated through calculations of correlations, comparative analysis and identification of relationships between all ranks of features produced. It was found that even though it is a model that is difficult to explain, 75\% of the expectations of human experts were met, with approximately 48\% agreement between results from XAI methods and human experts. The results allow for answering questions such as: "Are the Expectation of Interpretation generated among different human experts similar?", "Do the different XAI methods generate similar explanations for the proposed problem?", "Can explanations generated by XAI methods meet human expectation of Interpretations?", and "Can Explanations and Expectations of Interpretation work together?".
- Abstract(参考訳): 説明可能な人工知能(XAI)に基づく戦略は、ブラックボックスモデルの結果のより良い人間の解釈可能性を促進する。
これにより、XAI手法による説明が人間の期待に合致するかどうかを疑問視する可能性が開ける。
現在使われているXAIメソッド(Ciu、Dalex、Eli5、Lofo、Shap、Skater)は、その入力と出力の結果、モデルがどのように説明されるかの概観を可能にする、機能との関連性のグローバルなランキングを含む、さまざまなタイプの説明を提供する。
これらの手法は、モデルの説明可能性の向上と、問題の文脈に基づく解釈可能性の向上を提供する。
本研究は、XAI法とその解釈による説明の隠蔽を目的として、殺人予測に関連する現実世界の分類問題に対処し、既にピア検証済みで、提案したブラックボックスモデルを再現し、6つの異なるXAI法を用いて説明と6つの異なる人間の専門家を作成した。
その結果は, 相関関係の計算, 比較分析, 生成した特徴のすべての階級間の関係の同定によって得られた。
説明が難しいモデルであるにもかかわらず, XAI法と人的専門家の間では, 人的専門家の期待の75%が満たされ, 約48パーセントの合意が得られた。
その結果,「人間の専門家間での解釈の期待は類似しているか」「XAIメソッドは,提案された問題に対して同様の説明を生成するのか」「XAIメソッドが生成する説明は,解釈の人間の期待に合致しているか」「解釈の期待と期待は一緒に働くか」といった疑問に答えることができた。
関連論文リスト
- How Reliable and Stable are Explanations of XAI Methods? [0.4749981032986242]
ブラックボックスモデルは、社会の中で生活している人間の日常生活にますます使われている。
XAI(Explainable Artificial Intelligence)メソッドが登場し、モデルが特定の予測を行う方法に関するさらなる説明が生まれている。
その結果、現在のXAI法は1つの特定の方法を除いて摂動に敏感であることが判明した。
論文 参考訳(メタデータ) (2024-07-03T13:47:41Z) - Unraveling the Dilemma of AI Errors: Exploring the Effectiveness of Human and Machine Explanations for Large Language Models [8.863857300695667]
質問応答課題において, 人文文156件と, サリエンシに基づく説明文について分析した。
以上の結果から,人間の唾液マップは,機械の唾液マップよりもAIの回答を説明するのに有用であることが示唆された。
この発見は、説明におけるAIエラーのジレンマを示唆するものであり、役に立つ説明は、間違ったAI予測をサポートする場合にタスクパフォーマンスを低下させる可能性がある。
論文 参考訳(メタデータ) (2024-04-11T13:16:51Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - A Turing Test for Transparency [0.0]
説明可能な人工知能(XAI)の中心的な目標は、人間とAIのインタラクションにおける信頼関係を改善することである。
最近の実証的な証拠は、説明が反対の効果を持つことを示している。
この効果はXAIの目的に挑戦し、透明なAI手法の責任ある使用には、人間が人間の説明から生成された機械を区別する能力を考慮する必要があることを示唆している。
論文 参考訳(メタデータ) (2021-06-21T20:09:40Z) - Argumentative XAI: A Survey [15.294433619347082]
計算論の分野からの手法を用いて構築したXAI手法の概要を概説する。
私たちは、さまざまなタイプの説明(本質的およびポストホック的)、議論に基づく説明がデプロイされるさまざまなモデル、デリバリの異なる形式、それらが使用する議論フレームワークに焦点を当てます。
論文 参考訳(メタデータ) (2021-05-24T13:32:59Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Challenging common interpretability assumptions in feature attribution
explanations [0.0]
大規模な人・物体実験により,3つの共通解釈可能性仮定の妥当性を実証的に評価した。
特徴帰属の説明は、人間の意思決定者にとって、我々のタスクに限界効用をもたらす。
論文 参考訳(メタデータ) (2020-12-04T17:57:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。