論文の概要: Evaluation of Human-Understandability of Global Model Explanations using
Decision Tree
- arxiv url: http://arxiv.org/abs/2309.09917v1
- Date: Mon, 18 Sep 2023 16:30:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 12:20:40.980947
- Title: Evaluation of Human-Understandability of Global Model Explanations using
Decision Tree
- Title(参考訳): 決定木を用いたグローバルモデル説明の理解可能性の評価
- Authors: Adarsa Sivaprasad, Ehud Reiter, Nava Tintarev and Nir Oren
- Abstract要約: 我々は、物語的、患者固有の、そしてグローバルなモデル説明を生成する。
特定のタイプの説明を強く好みます。
これは信頼と行動の両方が可能な健康情報システムの設計を導くものである。
- 参考スコア(独自算出の注目度): 8.263545324859969
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In explainable artificial intelligence (XAI) research, the predominant focus
has been on interpreting models for experts and practitioners. Model agnostic
and local explanation approaches are deemed interpretable and sufficient in
many applications. However, in domains like healthcare, where end users are
patients without AI or domain expertise, there is an urgent need for model
explanations that are more comprehensible and instil trust in the model's
operations. We hypothesise that generating model explanations that are
narrative, patient-specific and global(holistic of the model) would enable
better understandability and enable decision-making. We test this using a
decision tree model to generate both local and global explanations for patients
identified as having a high risk of coronary heart disease. These explanations
are presented to non-expert users. We find a strong individual preference for a
specific type of explanation. The majority of participants prefer global
explanations, while a smaller group prefers local explanations. A task based
evaluation of mental models of these participants provide valuable feedback to
enhance narrative global explanations. This, in turn, guides the design of
health informatics systems that are both trustworthy and actionable.
- Abstract(参考訳): 説明可能な人工知能(XAI)の研究において、主に専門家や実践者のモデルを解釈することに焦点を当てている。
モデル非依存的および局所的説明法は多くの応用において解釈可能で十分であるとみなされる。
しかし、エンドユーザーがAIやドメインの専門知識を持たない患者である医療のようなドメインでは、モデルの操作をより理解し、信頼を損なうようなモデル説明が緊急に必要となる。
ナラティブ,患者固有,グローバル(モデル総括)のモデル説明を生成すれば,理解性が向上し,意思決定が可能になると仮定した。
冠状動脈疾患のリスクが高いと診断された患者に対して,決定木モデルを用いて局所的およびグローバル的説明を生成する。
これらの説明は専門家でないユーザーに提示される。
特定のタイプの説明に対して,個々の好みが強いことが分かりました。
参加者の大半はグローバルな説明を好むが、小さなグループはローカルな説明を好む。
これらの被験者のメンタルモデルに対するタスクベース評価は、物語のグローバルな説明を強化する貴重なフィードバックを提供する。
これは、信頼性と行動性の両方を有する健康情報システムの設計をガイドする。
関連論文リスト
- Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Self-explaining Neural Network with Plausible Explanations [2.724141845301679]
本稿では, 経時的院内死亡予測のための自己説明型ニューラルネットワークを提案する。
我々は、説明の原子単位として、ドメイン知識駆動型逐次組織障害評価(SOFA)の臓器特異的スコアを使用します。
以上の結果から,SOFA臓器スコアの経時的変化による死亡率の変動について興味深い知見が得られた。
論文 参考訳(メタデータ) (2021-10-09T15:32:17Z) - Explanatory Pluralism in Explainable AI [0.0]
私は、説明のタイプとそれに対応するXAIメソッドの分類をグラフ化します。
AIモデルの内部メカニズムを公開しようとすると、診断説明を生成する。
モデルを安定に一般化したい場合、期待-説明を生成する。
最後に、モデルの使用を正当化したい場合、ロール・エクスラレーションを生成します。
論文 参考訳(メタデータ) (2021-06-26T09:02:06Z) - On the Objective Evaluation of Post Hoc Explainers [10.981508361941335]
機械学習研究の最近の傾向は、それらがブラックボックスであると考えられる程度に、ますます複雑化しているアルゴリズムにつながっている。
意思決定の不透明度を低減するため、そのようなモデルの内部動作を人間に理解可能な方法で解釈する手法が提案されている。
本稿では,モデルの加法構造から直接導出される地底真理に基づくポストホック説明器の評価のための枠組みを提案する。
論文 参考訳(メタデータ) (2021-06-15T19:06:51Z) - Faithful and Plausible Explanations of Medical Code Predictions [12.156363504753244]
説明は、モデルの意思決定に対する忠実さと、ドメインの専門家への妥当性のバランスをとらなければならない。
トレーニングされたモデルの振る舞いを模倣し、これらのトレードオフをきめ細かく制御するプロキシモデルをトレーニングします。
我々は,icdコードを臨床ノートに割り当てる作業に対するアプローチを評価し,プロキシモデルからの説明が忠実で,訓練されたモデルの振る舞いを再現できることを示す。
論文 参考訳(メタデータ) (2021-04-16T05:13:36Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - DECE: Decision Explorer with Counterfactual Explanations for Machine
Learning Models [36.50754934147469]
我々は,機械学習モデルの振る舞いを理解し,探索するために,反実的説明の可能性を利用する。
我々は、個別のインスタンスとデータサブセットに関するモデルの判断を理解し、調査するのに役立つインタラクティブな可視化システムであるDECEを設計する。
論文 参考訳(メタデータ) (2020-08-19T09:44:47Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。