論文の概要: Diagrammatization: Rationalizing with diagrammatic AI explanations for
abductive reasoning on hypotheses
- arxiv url: http://arxiv.org/abs/2302.01241v1
- Date: Thu, 2 Feb 2023 17:23:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 13:06:52.711323
- Title: Diagrammatization: Rationalizing with diagrammatic AI explanations for
abductive reasoning on hypotheses
- Title(参考訳): ダイアグラム化:仮説の帰納的推論のための図式AI説明による合理化
- Authors: Brian Y. Lim, Joseph P. Cahaly, Chester Y. F. Sng, Adam Chew
- Abstract要約: 我々は、XAIは帰納的推論(最良の説明への推論)と図式推論をサポートするべきだと論じる。
Pircean図式推論と5段階の退化過程に着想を得て,ダイアグラム化を提案する。
臨床応用としてダイアグラムネットを実装し,心臓の聴力から診断を予測し,形状に基づく大腿骨の図で説明する。
- 参考スコア(独自算出の注目度): 5.22980614912553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many visualizations have been developed for explainable AI (XAI), but they
often require further reasoning by users to interpret. We argue that XAI should
support abductive reasoning - inference to the best explanation - with
diagrammatic reasoning to convey hypothesis generation and evaluation. Inspired
by Peircean diagrammatic reasoning and the 5-step abduction process, we propose
Diagrammatization, an approach to provide diagrammatic, abductive explanations
based on domain hypotheses. We implemented DiagramNet for a clinical
application to predict diagnoses from heart auscultation, and explain with
shape-based murmur diagrams. In modeling studies, we found that DiagramNet not
only provides faithful murmur shape explanations, but also has better
prediction performance than baseline models. We further demonstrate the
usefulness of diagrammatic explanations in a qualitative user study with
medical students, showing that clinically-relevant, diagrammatic explanations
are preferred over technical saliency map explanations. This work contributes
insights into providing domain-conventional abductive explanations for
user-centric XAI.
- Abstract(参考訳): 説明可能なAI(XAI)のために多くの視覚化が開発されているが、ユーザーによるさらなる推論を必要とすることが多い。
我々は、XAIは、仮説の生成と評価を伝えるための図式推論とともに、誘惑的推論(最良の説明への推論)をサポートするべきであると論じる。
ピアーセアン図式推論と5段階の退化過程に着想を得て,ドメイン仮説に基づく図式的・帰納的説明を提供するダイアグラム化法を提案する。
DiagramNetを臨床応用し,心臓の聴力から診断を予測し,形状に基づく大腿骨の図で説明する。
モデリング研究において、ダイアグラムネットは忠実なマームラー形状の説明を提供するだけでなく、ベースラインモデルよりも優れた予測性能を持つことがわかった。
さらに,医学生との質的ユーザスタディにおける図解的説明の有用性を実証し,臨床関連,図解的説明が専門的サリエンシマップの説明よりも望ましいことを示す。
この研究は、ユーザ中心のXAIに対して、ドメイン駆動の帰納的説明を提供するための洞察に貢献する。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Improving Explainability of Disentangled Representations using
Multipath-Attribution Mappings [12.145748796751619]
下流タスク予測に解釈不能な不整合表現を利用するフレームワークを提案する。
提案手法の有効性を,総合ベンチマークスイートと2つの医療データセットで実証する。
論文 参考訳(メタデータ) (2023-06-15T10:52:29Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Quantifying the Intrinsic Usefulness of Attributional Explanations for
Graph Neural Networks with Artificial Simulatability Studies [1.2891210250935146]
人工的なシミュラビリティの研究をグラフニューラルネットワークの領域に拡張する。
コストのかかる人為的な試行の代わりに、説明監督可能なグラフニューラルネットワークを使用して、シミュラビリティーの研究を行います。
関連する説明は、グラフニューラルネットワークのサンプル効率を大幅に向上させる可能性がある。
論文 参考訳(メタデータ) (2023-05-25T11:59:42Z) - Explainable AI And Visual Reasoning: Insights From Radiology [0.0]
機械学習による分類では、明らかな根拠がなく、潜在的ユーザによる信頼と採用を引き出すことができないことを示す。
この研究は、人間の推論と証拠の正当性に基づく人間中心の説明設計の指針となる原則を一般化する可能性がある。
論文 参考訳(メタデータ) (2023-04-06T18:30:27Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - Towards Explanation for Unsupervised Graph-Level Representation Learning [108.31036962735911]
既存の説明手法は,教師付き設定,例えばノード分類,グラフ分類に重点を置いているが,教師なしグラフレベルの表現学習に関する説明はまだ探索されていない。
本稿では,非教師付きグラフ表現における説明問題に対処するために,インフォメーション・ボトルネックの原則(IB)を推進し,新しい原理であるtextitUnsupervised Subgraph Information Bottleneck(USIB)を導出する。
また,グラフ表現とラベル空間上の説明部分グラフの関連性も理論的に解析し,表現の堅牢性が説明部分グラフの忠実性に寄与することを明らかにする。
論文 参考訳(メタデータ) (2022-05-20T02:50:15Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - ExAID: A Multimodal Explanation Framework for Computer-Aided Diagnosis
of Skin Lesions [4.886872847478552]
ExAID(Explainable AI for Dermatology)は、バイオメディカル画像解析のための新しいフレームワークである。
マルチモーダルな概念に基づく説明を提供する。
他の生体イメージング分野でも同様の応用の基盤となるだろう。
論文 参考訳(メタデータ) (2022-01-04T17:11:28Z) - Towards Relatable Explainable AI with the Perceptual Process [5.581885362337179]
我々は、説明は、他の概念、仮説、および関連性により関連していなければならないと論じる。
認知心理学に触発されて、相対論的説明可能なAIのためのXAI知覚処理フレームワークとRexNetモデルを提案する。
論文 参考訳(メタデータ) (2021-12-28T05:48:53Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。