論文の概要: Designing Explainable AI for Healthcare Reviews: Guidance on Adoption and Trust
- arxiv url: http://arxiv.org/abs/2603.00072v1
- Date: Wed, 11 Feb 2026 17:49:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:08.026683
- Title: Designing Explainable AI for Healthcare Reviews: Guidance on Adoption and Trust
- Title(参考訳): 医療レビューのための説明可能なAI設計 - 採用と信頼に関するガイダンス
- Authors: Eman Alamoudi, Ellis Solaiman,
- Abstract要約: 本稿では、患者レビューを分析するための説明可能なAIシステムの評価を目的とした混合手法の研究を要約する。
この調査は有用性に関する幅広い楽観性を示し(82%が時間節約に同意し、78%が本質を強調している)、説明可能性への強い需要を示した。
約45%は、テキストと視覚の複合的な説明を好んだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Patients increasingly rely on online reviews when choosing healthcare providers, yet the sheer volume of these reviews can hinder effective decision-making. This paper summarises a mixed-methods study aimed at evaluating a proposed explainable AI system that analyses patient reviews and provides transparent explanations for its outputs. The survey (N=60) indicated broad optimism regarding usefulness (82% agreed it saves time; 78% that it highlights essentials), alongside strong demand for explainability (84% considered it important to understand why a review is classified; 82% said explanations would increase trust). Around 45% preferred combined text-and-visual explanations. Thematic analysis of open-ended survey responses revealed core requirements such as accuracy, clarity and simplicity, responsiveness, data credibility, and unbiased processing. In addition, interviews with AI experts provided deeper qualitative insights, highlighting technical considerations and potential challenges for different explanation methods. Drawing on TAM and trust in automation, the findings suggest that high perceived usefulness and transparent explanations promote adoption, whereas complexity and inaccuracy hinder it. This paper contributes actionable design guidance for layered, audience-aware explanations in healthcare review systems.
- Abstract(参考訳): 患者は医療提供者を選ぶとき、ますますオンラインレビューに頼っているが、こうしたレビューの膨大な量は、効果的な意思決定を妨げる可能性がある。
本稿では、患者レビューを分析し、そのアウトプットに対して透明な説明を提供する、説明可能なAIシステムの評価を目的とした混合手法の研究を要約する。
調査(N=60)では、有用性に関する幅広い楽観主義(82%が時間を節約し、78%が必須事項を強調している)と説明責任の強い要求(84%がレビューが分類された理由を理解することが重要であると回答し、82%が説明が信頼を高めると回答した。
約45%は、テキストと視覚の複合的な説明を好んだ。
オープンな調査回答のテーマ分析により、正確さ、明快さ、単純さ、応答性、データの信頼性、偏りのない処理といったコア要件が明らかになった。
さらに、AI専門家とのインタビューは、技術的な考慮とさまざまな説明方法の潜在的な課題を強調し、より質的な洞察を提供した。
TAMと自動化の信頼に基づいて、高い知覚力と透明な説明が採用を促進する一方で、複雑さと不正確さがそれを妨げていることが示唆された。
本論文は,医療レビューシステムにおける階層的,観衆的説明のための実用的な設計指導に貢献する。
関連論文リスト
- Beyond "Not Novel Enough": Enriching Scholarly Critique with LLM-Assisted Feedback [81.0031690510116]
本稿では,3段階を通して専門家レビューアの動作をモデル化する,自動ノベルティ評価のための構造化アプローチを提案する。
本手法は,人文のノベルティレビューを大規模に分析した結果から得られたものである。
182 ICLR 2025 の提出で評価されたこの手法は、人間の推論と86.5%の一致と、新規性の結論に関する75.3%の合意を達成している。
論文 参考訳(メタデータ) (2025-08-14T16:18:37Z) - A User Study Evaluating Argumentative Explanations in Diagnostic Decision Support [2.020765276735129]
この研究は、診断プロセスを強化する最も効果的で有用な説明を見つけることを目的としている。
医師は様々な種類の説明を評価するために調査を行った。
論文 参考訳(メタデータ) (2025-05-15T11:42:24Z) - Usefulness of LLMs as an Author Checklist Assistant for Scientific Papers: NeurIPS'24 Experiment [59.09144776166979]
大規模言語モデル(LLM)は、科学的ピアレビューを支援する上で有望だが議論の余地のあるツールである。
本研究は,論文提出を提出基準に適合させるツールとして,会議環境におけるLCMの有用性を評価する。
論文 参考訳(メタデータ) (2024-11-05T18:58:00Z) - Explainability for Transparent Conversational Information-Seeking [13.790574266700006]
本研究は,反応を説明する様々な方法について考察する。
本研究は,説明タイプ,品質,提示モードの透過性を探索することにより,システム生成応答とユーザが検証可能な応答とのギャップを埋めることを目的とする。
論文 参考訳(メタデータ) (2024-05-06T09:25:14Z) - Designing Interpretable ML System to Enhance Trust in Healthcare: A Systematic Review to Proposed Responsible Clinician-AI-Collaboration Framework [13.215318138576713]
論文は、解釈可能なAIプロセス、方法、応用、および医療における実装の課題についてレビューする。
医療における堅牢な解釈可能性アプローチの重要な役割を包括的に理解することを目的としている。
論文 参考訳(メタデータ) (2023-11-18T12:29:18Z) - Generating Explanations in Medical Question-Answering by Expectation
Maximization Inference over Evidence [33.018873142559286]
本稿では,医療用QAシステムによって予測される回答に対して,自然言語による説明を生成するための新しい手法を提案する。
本システムは,説明生成過程における説明の質を高めるために,医学教科書から知識を抽出する。
論文 参考訳(メタデータ) (2023-10-02T16:00:37Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - The role of explainability in creating trustworthy artificial
intelligence for health care: a comprehensive survey of the terminology,
design choices, and evaluation strategies [1.2762298148425795]
透明性の欠如は、医療におけるAIシステムの実装における主要な障壁の1つとして認識されている。
我々は最近の文献をレビューし、説明可能なAIシステムの設計について研究者や実践者にガイダンスを提供する。
我々は、説明可能なモデリングが信頼できるAIに貢献できると結論づけるが、説明可能性の利点は実際に証明する必要がある。
論文 参考訳(メタデータ) (2020-07-31T09:08:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。