論文の概要: Exploring the Effect of Explanation Content and Format on User Comprehension and Trust in Healthcare
- arxiv url: http://arxiv.org/abs/2408.17401v2
- Date: Mon, 17 Feb 2025 17:49:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:04:55.917195
- Title: Exploring the Effect of Explanation Content and Format on User Comprehension and Trust in Healthcare
- Title(参考訳): 説明内容とフォーマットが医療におけるユーザ理解と信頼に及ぼす影響を探る
- Authors: Antonio Rago, Bence Palfi, Purin Sukpanichnant, Hannibal Nabli, Kavyesh Vivek, Olga Kostopoulou, James Kinross, Francesca Toni,
- Abstract要約: 本稿では,QCancerの予測を説明する際に,説明内容と形式がユーザの理解と信頼にどのように影響するかを検討する。
以上の結果から,Occlusion-1の主観的理解と信頼度がSHAPによる説明よりも高いことが示唆された。
- 参考スコア(独自算出の注目度): 11.433655064494896
- License:
- Abstract: AI-driven tools for healthcare are widely acknowledged as potentially beneficial to health practitioners and patients, e.g. the QCancer regression tool for cancer risk prediction. However, for these tools to be trusted, they need to be supplemented with explanations. We examine how explanations' content and format affect user comprehension and trust when explaining QCancer's predictions. Regarding content, we deploy SHAP and Occlusion-1. Regarding format, we present SHAP explanations, conventionally, as charts (SC) and Occlusion-1 explanations as charts (OC) as well as text (OT), to which their simpler nature lends itself. We conduct experiments with two sets of stakeholders: the general public (representing patients) and medical students (representing healthcare practitioners). Our experiments showed higher subjective comprehension and trust for Occlusion-1 over SHAP explanations based on content. However, when controlling for format, only OT outperformed SC, suggesting this trend is driven by preferences for text. Other findings corroborated that explanation format, rather than content, is often the critical factor.
- Abstract(参考訳): 医療用AI駆動ツールは、がんリスク予測のためのQCancer回帰ツールなど、医療従事者や患者にとって潜在的に有益であると広く認められている。
しかし、これらのツールを信頼するには、説明を補足する必要がある。
本稿では,QCancerの予測を説明する際に,説明内容と形式がユーザの理解と信頼にどのように影響するかを検討する。
コンテンツに関しては、SHAPとOcclusion-1をデプロイします。
フォーマットに関しては、従来のSHAP説明をチャート(SC)として、Occlusion-1説明をチャート(OC)として、そしてテキスト(OT)として提示します。
一般市民(患者代表)と医学生(医療実践者代表)の2つの利害関係者による実験を行った。
以上の結果から,Occlusion-1の主観的理解と信頼度がSHAPによる説明よりも高いことが示唆された。
しかし、フォーマットの制御では、OTの方がSCより優れており、この傾向はテキストの好みによって引き起こされていることを示唆している。
他の発見は、内容よりも説明形式が重要な要素であることが多いことを裏付けている。
関連論文リスト
- Fool Me Once? Contrasting Textual and Visual Explanations in a Clinical Decision-Support Setting [43.110187812734864]
視覚的説明(可用性マップ)、自然言語の説明、両方のモダリティの組み合わせの3種類の説明を評価した。
テキストに基づく説明は、高い信頼度をもたらすことが分かっており、従順マップと組み合わせることで軽減される。
また、説明の質、すなわち、それがどれだけ事実的に正しい情報であり、それがAIの正しさとどの程度一致しているかが、異なる説明タイプの有用性に大きく影響していることも観察します。
論文 参考訳(メタデータ) (2024-10-16T06:43:02Z) - Contrastive Learning with Counterfactual Explanations for Radiology Report Generation [83.30609465252441]
放射線学レポート生成のためのtextbfCountertextbfFactual textbfExplanations-based framework (CoFE) を提案する。
反現実的な説明は、アルゴリズムによってなされた決定をどのように変えられるかを理解するための強力なツールとして、シナリオが何であるかを問うことによって役立ちます。
2つのベンチマークの実験では、反ファクト的な説明を活用することで、CoFEは意味的に一貫性があり、事実的に完全なレポートを生成することができる。
論文 参考訳(メタデータ) (2024-07-19T17:24:25Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Evaluating GPT-3 Generated Explanations for Hateful Content Moderation [8.63841985804905]
ヘイトフルコンテンツと非ヘイトフルコンテンツの両方に関する説明を生成するために、GPT-3を使用します。
生成した説明を評価するために,2400人の独特な回答者を対象に調査を行った。
以上の結果から, GPTによる説明は言語流布度, 情報伝達度, 説得力, 論理音性において高い品質と評価された。
論文 参考訳(メタデータ) (2023-05-28T10:05:13Z) - "Nothing Abnormal": Disambiguating Medical Reports via Contrastive
Knowledge Infusion [6.9551174393701345]
コントラスト型事前学習と摂動型書き換えに基づく書き換えアルゴリズムを提案する。
胸部報告に基づくOpenI-Annotatedと、一般的な医療報告に基づくVA-Annotatedの2つのデータセットを作成しました。
提案アルゴリズムは,高内容忠実度で少ないあいまいな方法で文を効果的に書き換える。
論文 参考訳(メタデータ) (2023-05-15T02:01:20Z) - Directive Explanations for Monitoring the Risk of Diabetes Onset:
Introducing Directive Data-Centric Explanations and Combinations to Support
What-If Explorations [1.7109770736915972]
本稿では,糖尿病発症リスクを予測する説明ダッシュボードを提案する。
データ中心、機能重要度、サンプルベースの説明でこれらの予測を説明する。
11名の医療専門家と45名の医療専門家と51名の糖尿病患者を対象に研究を行った。
論文 参考訳(メタデータ) (2023-02-21T13:40:16Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。