論文の概要: A User Study Evaluating Argumentative Explanations in Diagnostic Decision Support
- arxiv url: http://arxiv.org/abs/2505.10188v1
- Date: Thu, 15 May 2025 11:42:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.297324
- Title: A User Study Evaluating Argumentative Explanations in Diagnostic Decision Support
- Title(参考訳): 診断意思決定支援における説明的説明の評価に関するユーザスタディ
- Authors: Felix Liedeker, Olivia Sanchez-Graillet, Moana Seidler, Christian Brandt, Jörg Wellmer, Philipp Cimiano,
- Abstract要約: この研究は、診断プロセスを強化する最も効果的で有用な説明を見つけることを目的としている。
医師は様々な種類の説明を評価するために調査を行った。
- 参考スコア(独自算出の注目度): 2.020765276735129
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As the field of healthcare increasingly adopts artificial intelligence, it becomes important to understand which types of explanations increase transparency and empower users to develop confidence and trust in the predictions made by machine learning (ML) systems. In shared decision-making scenarios where doctors cooperate with ML systems to reach an appropriate decision, establishing mutual trust is crucial. In this paper, we explore different approaches to generating explanations in eXplainable AI (XAI) and make their underlying arguments explicit so that they can be evaluated by medical experts. In particular, we present the findings of a user study conducted with physicians to investigate their perceptions of various types of AI-generated explanations in the context of diagnostic decision support. The study aims to identify the most effective and useful explanations that enhance the diagnostic process. In the study, medical doctors filled out a survey to assess different types of explanations. Further, an interview was carried out post-survey to gain qualitative insights on the requirements of explanations incorporated in diagnostic decision support. Overall, the insights gained from this study contribute to understanding the types of explanations that are most effective.
- Abstract(参考訳): 医療の分野が人工知能を採用するにつれて、どのタイプの説明が透明性を高め、ユーザーが機械学習(ML)システムによる予測に対する信頼と信頼を高めるかを理解することが重要になる。
医師がMLシステムと協力して適切な意思決定を行う共有意思決定シナリオでは、相互信頼の確立が不可欠である。
本稿では,eXplainable AI(XAI)における説明生成のためのさまざまなアプローチについて検討し,その基礎となる議論を明確化し,医療専門家による評価を可能にする。
特に、診断意思決定支援の文脈において、医師が様々なAI生成の説明に対する認識を調査するために実施したユーザスタディの成果について述べる。
この研究は、診断プロセスを強化する最も効果的で有用な説明を見つけることを目的としている。
調査では、医師がさまざまな種類の説明を調査した。
さらに,診断決定支援に組み込まれた説明書の要件に関する質的な洞察を得るため,調査後インタビューを行った。
この研究から得られた知見は、最も効果的な説明のタイプを理解するのに寄与する。
関連論文リスト
- Uncertainty-aware abstention in medical diagnosis based on medical texts [87.88110503208016]
本研究は,AI支援医療診断における信頼性の重要課題について論じる。
本研究は,診断に自信がなければ,診断システムによる意思決定の回避を可能にする選択予測手法に焦点をあてる。
我々は、選択予測タスクにおける信頼性を高めるための新しい最先端手法であるHUQ-2を紹介する。
論文 参考訳(メタデータ) (2025-02-25T10:15:21Z) - Towards Next-Generation Medical Agent: How o1 is Reshaping Decision-Making in Medical Scenarios [46.729092855387165]
本稿では,医療用AIエージェントのバックボーンLSMの選択について検討する。
我々の研究結果は、o1の診断精度と一貫性を高める能力を示し、よりスマートでより応答性の高いAIツールへの道を開いた。
論文 参考訳(メタデータ) (2024-11-16T18:19:53Z) - RuleAlign: Making Large Language Models Better Physicians with Diagnostic Rule Alignment [54.91736546490813]
本稿では,大規模言語モデルと特定の診断規則との整合性を考慮したルールアラインフレームワークを提案する。
患者と医師間の規則に基づくコミュニケーションを含む医療対話データセットを開発した。
実験の結果,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-08-22T17:44:40Z) - Towards the Identifiability and Explainability for Personalized Learner
Modeling: An Inductive Paradigm [36.60917255464867]
本稿では,エンコーダ・デコーダモデルにインスパイアされた新しい応答効率応答パラダイムに基づく,識別可能な認知診断フレームワークを提案する。
診断精度を損なうことなく,ID-CDFが効果的に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-09-01T07:18:02Z) - Beyond Known Reality: Exploiting Counterfactual Explanations for Medical Research [1.474723404975345]
本研究は, 医療研究における「もし」シナリオの適用可能性を探るために, 反事実的説明を用いている。
本研究の目的は, 小児後頭葉腫瘍の診断に使用されるMRI像の理解を深めることである。
論文 参考訳(メタデータ) (2023-07-05T09:14:09Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - ExAID: A Multimodal Explanation Framework for Computer-Aided Diagnosis
of Skin Lesions [4.886872847478552]
ExAID(Explainable AI for Dermatology)は、バイオメディカル画像解析のための新しいフレームワークである。
マルチモーダルな概念に基づく説明を提供する。
他の生体イメージング分野でも同様の応用の基盤となるだろう。
論文 参考訳(メタデータ) (2022-01-04T17:11:28Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。