論文の概要: Evaluation of Human-Understandability of Global Model Explanations using
Decision Tree
- arxiv url: http://arxiv.org/abs/2309.09917v1
- Date: Mon, 18 Sep 2023 16:30:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 12:20:40.980947
- Title: Evaluation of Human-Understandability of Global Model Explanations using
Decision Tree
- Title(参考訳): 決定木を用いたグローバルモデル説明の理解可能性の評価
- Authors: Adarsa Sivaprasad, Ehud Reiter, Nava Tintarev and Nir Oren
- Abstract要約: 我々は、物語的、患者固有の、そしてグローバルなモデル説明を生成する。
特定のタイプの説明を強く好みます。
これは信頼と行動の両方が可能な健康情報システムの設計を導くものである。
- 参考スコア(独自算出の注目度): 8.263545324859969
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In explainable artificial intelligence (XAI) research, the predominant focus
has been on interpreting models for experts and practitioners. Model agnostic
and local explanation approaches are deemed interpretable and sufficient in
many applications. However, in domains like healthcare, where end users are
patients without AI or domain expertise, there is an urgent need for model
explanations that are more comprehensible and instil trust in the model's
operations. We hypothesise that generating model explanations that are
narrative, patient-specific and global(holistic of the model) would enable
better understandability and enable decision-making. We test this using a
decision tree model to generate both local and global explanations for patients
identified as having a high risk of coronary heart disease. These explanations
are presented to non-expert users. We find a strong individual preference for a
specific type of explanation. The majority of participants prefer global
explanations, while a smaller group prefers local explanations. A task based
evaluation of mental models of these participants provide valuable feedback to
enhance narrative global explanations. This, in turn, guides the design of
health informatics systems that are both trustworthy and actionable.
- Abstract(参考訳): 説明可能な人工知能(XAI)の研究において、主に専門家や実践者のモデルを解釈することに焦点を当てている。
モデル非依存的および局所的説明法は多くの応用において解釈可能で十分であるとみなされる。
しかし、エンドユーザーがAIやドメインの専門知識を持たない患者である医療のようなドメインでは、モデルの操作をより理解し、信頼を損なうようなモデル説明が緊急に必要となる。
ナラティブ,患者固有,グローバル(モデル総括)のモデル説明を生成すれば,理解性が向上し,意思決定が可能になると仮定した。
冠状動脈疾患のリスクが高いと診断された患者に対して,決定木モデルを用いて局所的およびグローバル的説明を生成する。
これらの説明は専門家でないユーザーに提示される。
特定のタイプの説明に対して,個々の好みが強いことが分かりました。
参加者の大半はグローバルな説明を好むが、小さなグループはローカルな説明を好む。
これらの被験者のメンタルモデルに対するタスクベース評価は、物語のグローバルな説明を強化する貴重なフィードバックを提供する。
これは、信頼性と行動性の両方を有する健康情報システムの設計をガイドする。
関連論文リスト
- XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - Evaluating the Explainability of Attributes and Prototypes for a Medical Classification Model [0.0]
属性とプロトタイプに基づく説明をProto-Capsモデルで評価する。
属性スコアと視覚プロトタイプがモデルの信頼性を高めると結論付けることができる。
論文 参考訳(メタデータ) (2024-04-15T16:43:24Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Self-explaining Neural Network with Plausible Explanations [2.724141845301679]
本稿では, 経時的院内死亡予測のための自己説明型ニューラルネットワークを提案する。
我々は、説明の原子単位として、ドメイン知識駆動型逐次組織障害評価(SOFA)の臓器特異的スコアを使用します。
以上の結果から,SOFA臓器スコアの経時的変化による死亡率の変動について興味深い知見が得られた。
論文 参考訳(メタデータ) (2021-10-09T15:32:17Z) - Explanatory Pluralism in Explainable AI [0.0]
私は、説明のタイプとそれに対応するXAIメソッドの分類をグラフ化します。
AIモデルの内部メカニズムを公開しようとすると、診断説明を生成する。
モデルを安定に一般化したい場合、期待-説明を生成する。
最後に、モデルの使用を正当化したい場合、ロール・エクスラレーションを生成します。
論文 参考訳(メタデータ) (2021-06-26T09:02:06Z) - Faithful and Plausible Explanations of Medical Code Predictions [12.156363504753244]
説明は、モデルの意思決定に対する忠実さと、ドメインの専門家への妥当性のバランスをとらなければならない。
トレーニングされたモデルの振る舞いを模倣し、これらのトレードオフをきめ細かく制御するプロキシモデルをトレーニングします。
我々は,icdコードを臨床ノートに割り当てる作業に対するアプローチを評価し,プロキシモデルからの説明が忠実で,訓練されたモデルの振る舞いを再現できることを示す。
論文 参考訳(メタデータ) (2021-04-16T05:13:36Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。