論文の概要: Black Box Model Explanations and the Human Interpretability Expectations
-- An Analysis in the Context of Homicide Prediction
- arxiv url: http://arxiv.org/abs/2210.10849v1
- Date: Wed, 19 Oct 2022 19:23:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 13:49:50.011519
- Title: Black Box Model Explanations and the Human Interpretability Expectations
-- An Analysis in the Context of Homicide Prediction
- Title(参考訳): ブラックボックスモデルの説明と人間の解釈可能性期待 -殺人予測の文脈における分析-
- Authors: Jos\'e Ribeiro, N\'ikolas Carneiro and Ronnie Alves
- Abstract要約: XAIは、ブラックボックス機械学習モデルの結果のより優れた人間の解釈可能性を促進する。
現在の研究は、これらの説明が人間の専門家の解釈可能性への期待をどのように満たすか、さらなる研究の必要性を指摘している。
本研究は、殺人予測に関連する現実世界の分類問題に対処する。
- 参考スコア(独自算出の注目度): 1.1602089225841632
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Strategies based on Explainable Artificial Intelligence - XAI have promoted
better human interpretability of the results of black box machine learning
models. The XAI measures being currently used (Ciu, Dalex, Eli5, Lofo, Shap,
and Skater) provide various forms of explanations, including global rankings of
relevance of attributes. Current research points to the need for further
studies on how these explanations meet the Interpretability Expectations of
human experts and how they can be used to make the model even more transparent
while taking into account specific complexities of the model and dataset being
analyzed, as well as important human factors of sensitive real-world
contexts/problems. Intending to shed light on the explanations generated by XAI
measures and their interpretabilities, this research addresses a real-world
classification problem related to homicide prediction, duly endorsed by the
scientific community, replicated its proposed black box model and used 6
different XAI measures to generate explanations and 6 different human experts
to generate what this research referred to as Interpretability Expectations -
IE. The results were computed by means of comparative analysis and
identification of relationships among all the attribute ranks produced, and
~49% concordance was found among attributes indicated by means of XAI measures
and human experts, ~41% exclusively by XAI measures and ~10% exclusively by
human experts. The results allow for answering: "Do the different XAI measures
generate similar explanations for the proposed problem?", "Are the
interpretability expectations generated among different human experts
similar?", "Do the explanations generated by XAI measures meet the
interpretability expectations of human experts?" and "Can Interpretability
Explanations and Expectations work together?", all of which concerning the
context of homicide prediction.
- Abstract(参考訳): 説明可能な人工知能に基づく戦略 - XAIは、ブラックボックス機械学習モデルの結果のより良い人間の解釈可能性を促進する。
現在使われているXAI対策(Ciu、Dalex、Eli5、Lofo、Shap、Skater)は、属性の関連性に関する世界的ランキングを含む様々な説明を提供する。
最近の研究では、これらの説明が人間の専門家の解釈可能性の期待をどのように満たしているか、分析されるモデルやデータセットの特定の複雑さや、センシティブな現実世界のコンテキスト/問題の重要なヒューマンファクターを考慮しながら、モデルをより透明にするためにどのように使用されるのか、さらなる研究の必要性を指摘している。
本研究は、XAI測度とその解釈可能性から生じる説明を隠蔽するため、科学的コミュニティによって正式に支持された殺人予測に関連する現実世界の分類問題に対処し、提案されたブラックボックスモデルを再現し、6つの異なるXAI測度を用いて説明を生成するとともに、6つの異なる人間専門家を用いて、この研究を解釈可能性予測(Interpretability expectationsIE)と呼ぶものを生成する。
その結果,すべての属性ランク間の関係を比較分析・同定し,xai対策と人間専門家が示す属性のうち約49%,xai対策が約41%,人間専門家が10%の一致を示した。
結果は,「異なるXAI尺度は,提案された問題に対して同様の説明を生成するか」「異なる人間の専門家の間で生じる解釈可能性の期待は類似しているか」「XAI尺度が生み出す説明は,人間の専門家の解釈可能性の期待に合致しているか」「Can Interpretability Explanations and expectations working?」と答える。
関連論文リスト
- The future of human-centric eXplainable Artificial Intelligence (XAI) is
not post-hoc explanations [0.6445605125467573]
人間中心のXAIにおける現在のアプローチは、単一の説明器に依存する傾向がある。
我々は、ポストホックな説明可能性から解釈可能なニューラルネットワークアーキテクチャの設計に移行することを提案する。
論文 参考訳(メタデータ) (2023-07-01T15:24:47Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - The XAI Alignment Problem: Rethinking How Should We Evaluate
Human-Centered AI Explainability Techniques [25.40212979946771]
可視性は、機械の説明が人間の説明といかに妥当かを測定する。
XAIアルゴリズムは機械の説明を規則化し、人間の説明と全く同じ内容を表現する。
論文 参考訳(メタデータ) (2023-03-30T20:59:44Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - A Turing Test for Transparency [0.0]
説明可能な人工知能(XAI)の中心的な目標は、人間とAIのインタラクションにおける信頼関係を改善することである。
最近の実証的な証拠は、説明が反対の効果を持つことを示している。
この効果はXAIの目的に挑戦し、透明なAI手法の責任ある使用には、人間が人間の説明から生成された機械を区別する能力を考慮する必要があることを示唆している。
論文 参考訳(メタデータ) (2021-06-21T20:09:40Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - A Comparative Approach to Explainable Artificial Intelligence Methods in
Application to High-Dimensional Electronic Health Records: Examining the
Usability of XAI [0.0]
XAIは、コミュニケーション手段によって人間に達成される信頼の実証的要因を生み出すことを目的としている。
機械を信頼して人間の生き方に向くというイデオロギーは倫理的な混乱を引き起こします。
XAIメソッドは、ローカルレベルとグローバルレベルの両方で出力される特定のモデルに対する機能貢献を視覚化します。
論文 参考訳(メタデータ) (2021-03-08T18:15:52Z) - Challenging common interpretability assumptions in feature attribution
explanations [0.0]
大規模な人・物体実験により,3つの共通解釈可能性仮定の妥当性を実証的に評価した。
特徴帰属の説明は、人間の意思決定者にとって、我々のタスクに限界効用をもたらす。
論文 参考訳(メタデータ) (2020-12-04T17:57:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。