論文の概要: Diagrammatization and Abduction to Improve AI Interpretability With Domain-Aligned Explanations for Medical Diagnosis
- arxiv url: http://arxiv.org/abs/2302.01241v3
- Date: Wed, 26 Feb 2025 18:09:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:54:01.374202
- Title: Diagrammatization and Abduction to Improve AI Interpretability With Domain-Aligned Explanations for Medical Diagnosis
- Title(参考訳): 医学診断における領域別説明によるAI解釈性向上のためのダイアグラム化とアブダクション
- Authors: Brian Y. Lim, Joseph P. Cahaly, Chester Y. F. Sng, Adam Chew,
- Abstract要約: 本稿では,解釈可能性のギャップを低減するため,図式および帰納的推論によるドメインアライメントの改善を提案する。
DiagramNetは,心臓の聴診から心臓の診断を予測し,基準評価に基づいて最適な仮説を選定し,臨床的に関連のある大腿骨の図を用いて説明する。
- 参考スコア(独自算出の注目度): 9.904990343076433
- License:
- Abstract: Many visualizations have been developed for explainable AI (XAI), but they often require further reasoning by users to interpret. Investigating XAI for high-stakes medical diagnosis, we propose improving domain alignment with diagrammatic and abductive reasoning to reduce the interpretability gap. We developed DiagramNet to predict cardiac diagnoses from heart auscultation, select the best-fitting hypothesis based on criteria evaluation, and explain with clinically-relevant murmur diagrams. The ante-hoc interpretable model leverages domain-relevant ontology, representation, and reasoning process to increase trust in expert users. In modeling studies, we found that DiagramNet not only provides faithful murmur shape explanations, but also has better performance than baseline models. We demonstrate the interpretability and trustworthiness of diagrammatic, abductive explanations in a qualitative user study with medical students, showing that clinically-relevant, diagrammatic explanations are preferred over technical saliency map explanations. This work contributes insights into providing domain-aligned explanations for user-centric XAI in complex domains.
- Abstract(参考訳): 説明可能なAI(XAI)のために多くの視覚化が開発されているが、ユーザーによるさらなる推論を必要とすることが多い。
ハイテイクな診断のためのXAIを探索し, 図形的, 帰納的推論によるドメインアライメントの改善を提案し, 解釈可能性のギャップを減らした。
DiagramNet は,心臓の聴診から心臓の診断を予測し,基準評価に基づいて最適な仮説を選定し,臨床的に関連のある大腿骨の図を用いて説明する。
アンテホック解釈モデルは、ドメイン関連オントロジー、表現、推論プロセスを活用して、エキスパートユーザの信頼を高める。
モデル研究において、ダイアグラムネットは、忠実な大腿骨形状の説明を提供するだけでなく、ベースラインモデルよりも優れた性能を持つことがわかった。
医学生との質的ユーザスタディにおいて, 図形的, 帰納的説明の解釈可能性と信頼性を実証し, 臨床的に関連性のある図形的説明の方が, 技術的サリエンシマップの説明よりも好ましいことを示した。
この研究は、複雑なドメインにおけるユーザ中心のXAIに対するドメイン整合性の説明を提供するための洞察に貢献する。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Improving Explainability of Disentangled Representations using
Multipath-Attribution Mappings [12.145748796751619]
下流タスク予測に解釈不能な不整合表現を利用するフレームワークを提案する。
提案手法の有効性を,総合ベンチマークスイートと2つの医療データセットで実証する。
論文 参考訳(メタデータ) (2023-06-15T10:52:29Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Quantifying the Intrinsic Usefulness of Attributional Explanations for
Graph Neural Networks with Artificial Simulatability Studies [1.2891210250935146]
人工的なシミュラビリティの研究をグラフニューラルネットワークの領域に拡張する。
コストのかかる人為的な試行の代わりに、説明監督可能なグラフニューラルネットワークを使用して、シミュラビリティーの研究を行います。
関連する説明は、グラフニューラルネットワークのサンプル効率を大幅に向上させる可能性がある。
論文 参考訳(メタデータ) (2023-05-25T11:59:42Z) - Explainable AI And Visual Reasoning: Insights From Radiology [0.0]
機械学習による分類では、明らかな根拠がなく、潜在的ユーザによる信頼と採用を引き出すことができないことを示す。
この研究は、人間の推論と証拠の正当性に基づく人間中心の説明設計の指針となる原則を一般化する可能性がある。
論文 参考訳(メタデータ) (2023-04-06T18:30:27Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - ExAID: A Multimodal Explanation Framework for Computer-Aided Diagnosis
of Skin Lesions [4.886872847478552]
ExAID(Explainable AI for Dermatology)は、バイオメディカル画像解析のための新しいフレームワークである。
マルチモーダルな概念に基づく説明を提供する。
他の生体イメージング分野でも同様の応用の基盤となるだろう。
論文 参考訳(メタデータ) (2022-01-04T17:11:28Z) - Towards Relatable Explainable AI with the Perceptual Process [5.581885362337179]
我々は、説明は、他の概念、仮説、および関連性により関連していなければならないと論じる。
認知心理学に触発されて、相対論的説明可能なAIのためのXAI知覚処理フレームワークとRexNetモデルを提案する。
論文 参考訳(メタデータ) (2021-12-28T05:48:53Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。