論文の概要: Bridging AI and Clinical Reasoning: Abductive Explanations for Alignment on Critical Symptoms
- arxiv url: http://arxiv.org/abs/2602.13985v1
- Date: Sun, 15 Feb 2026 04:27:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.588553
- Title: Bridging AI and Clinical Reasoning: Abductive Explanations for Alignment on Critical Symptoms
- Title(参考訳): ブリッジングAIと臨床推論 : 臨界症状のアライメントに関する帰納的説明
- Authors: Belona Sonna, Alban Grastien,
- Abstract要約: 主な課題は、AI推論が構造化された臨床フレームワークから分岐することである。
我々は、一貫した保証された推論を提供する形式的な誘惑的説明を活用する。
これにより、AI意思決定を明確に理解することができ、臨床推論と一致させることができる。
- 参考スコア(独自算出の注目度): 5.220940151628734
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) has demonstrated strong potential in clinical diagnostics, often achieving accuracy comparable to or exceeding that of human experts. A key challenge, however, is that AI reasoning frequently diverges from structured clinical frameworks, limiting trust, interpretability, and adoption. Critical symptoms, pivotal for rapid and accurate decision-making, may be overlooked by AI models even when predictions are correct. Existing post hoc explanation methods provide limited transparency and lack formal guarantees. To address this, we leverage formal abductive explanations, which offer consistent, guaranteed reasoning over minimal sufficient feature sets. This enables a clear understanding of AI decision-making and allows alignment with clinical reasoning. Our approach preserves predictive accuracy while providing clinically actionable insights, establishing a robust framework for trustworthy AI in medical diagnosis.
- Abstract(参考訳): 人工知能(AI)は、臨床診断において強力な可能性を示し、しばしば人間の専門家と同等かそれ以上の精度を達成している。
しかし、重要な課題は、AI推論が構造化された臨床フレームワークから頻繁に分岐し、信頼、解釈可能性、採用を制限することである。
迅速かつ正確な意思決定の要となる致命的な症状は、予測が正しい場合でも、AIモデルによって見過ごされる可能性がある。
既存のポストホックの説明手法は、透明性を制限し、正式な保証を欠いている。
これを解決するために、我々は、最小限の機能集合に対して一貫した保証された推論を提供する形式的帰納的説明を利用する。
これにより、AI意思決定を明確に理解することができ、臨床推論と一致させることができる。
本手法は,臨床的に有効な知見を提供しながら予測精度を保ち,医用診断における信頼性の高いAIのための堅牢な枠組みを確立する。
関連論文リスト
- Timely Clinical Diagnosis through Active Test Selection [49.091903570068155]
本稿では,現実の診断推論をよりうまくエミュレートするためのACTMED (Adaptive Clinical Test selection via Model-based Experimental Design)を提案する。
LLMは柔軟なシミュレータとして機能し、構造化されたタスク固有のトレーニングデータを必要とせずに、患者状態のもっともらしい分布を生成し、信念の更新をサポートする。
我々は、実世界のデータセット上でACTMEDを評価し、診断精度、解釈可能性、リソース使用量を改善するためにテスト選択を最適化できることを示す。
論文 参考訳(メタデータ) (2025-10-21T18:10:45Z) - Simulating Viva Voce Examinations to Evaluate Clinical Reasoning in Large Language Models [51.91760712805404]
大規模言語モデル(LLM)におけるシーケンシャルな臨床推論を評価するためのベンチマークであるVivaBenchを紹介する。
本データセットは,医療訓練における(口頭)検査をシミュレートする対話的シナリオとして構成された1762名の医師による臨床ヴィグネットから構成される。
本分析では,臨床における認知的誤りを反映するいくつかの障害モードを同定した。
論文 参考訳(メタデータ) (2025-10-11T16:24:35Z) - RAD: Towards Trustworthy Retrieval-Augmented Multi-modal Clinical Diagnosis [56.373297358647655]
Retrieval-Augmented Diagnosis (RAD)は、下流タスクで直接マルチモーダルモデルに外部知識を注入する新しいフレームワークである。
RADは、複数の医療ソースからの疾患中心の知識の検索と改善、ガイドライン強化コントラスト損失トランスフォーマー、デュアルデコーダの3つの主要なメカニズムで機能する。
論文 参考訳(メタデータ) (2025-09-24T10:36:14Z) - Position Paper: Integrating Explainability and Uncertainty Estimation in Medical AI [1.692908842436229]
医療AIにおける信頼とユーザビリティを高めるために,説明不能不確実性推定(XUE)を提案する。
我々は、医療の不確実性をAIの不確実性の概念にマッピングし、XUEを実装する上で重要な課題を特定する。
この研究は、説明可能性と不確実性をブリッジすることで、信頼できる医療AIの開発に寄与する。
論文 参考訳(メタデータ) (2025-09-14T02:41:26Z) - Reverse Physician-AI Relationship: Full-process Clinical Diagnosis Driven by a Large Language Model [71.40113970879219]
医師とAIの関係を逆転させるパラダイムシフトを提案する。
DxDirector-7Bは先進的な深層思考能力を持つLLMであり,医師の関与を最小限に抑えたフルプロセス診断を可能にする。
DxDirector-7Bは診断精度が優れているだけでなく、医師の作業量を大幅に削減する。
論文 参考訳(メタデータ) (2025-08-14T09:51:20Z) - Medical Reasoning in the Era of LLMs: A Systematic Review of Enhancement Techniques and Applications [59.721265428780946]
医学における大きな言語モデル(LLM)は印象的な能力を実現しているが、体系的で透明で検証可能な推論を行う能力に重大なギャップが残っている。
本稿は、この新興分野に関する最初の体系的なレビューを提供する。
本稿では,学習時間戦略とテスト時間メカニズムに分類した推論強化手法の分類法を提案する。
論文 参考訳(メタデータ) (2025-08-01T14:41:31Z) - Beyond Black-Box AI: Interpretable Hybrid Systems for Dementia Care [2.4339626079536925]
近年の大規模言語モデル(LLM)のブームは、人工知能(AI)システムが医療診断に役立つという期待を再燃させた。
ベンチマークスコアはめちゃくちゃですが、LCMアシスタントはまだベッドサイドで測定可能な改善を提供していません。
このスクーピングレビューは、臨床現場で実践的な貢献をするためにAIが制限されている領域を強調することを目的としている。
論文 参考訳(メタデータ) (2025-07-02T01:43:06Z) - The Limits of Perception: Analyzing Inconsistencies in Saliency Maps in XAI [0.0]
説明可能な人工知能(XAI)は、AIの意思決定プロセスの解明に不可欠である。
ブラックボックス」として機能し、その理由が曖昧でアクセスできないため、誤診のリスクが高まる。
この透明性へのシフトは、単に有益であるだけでなく、医療におけるAI統合の責任を負うための重要なステップでもある。
論文 参考訳(メタデータ) (2024-03-23T02:15:23Z) - ContrastDiagnosis: Enhancing Interpretability in Lung Nodule Diagnosis
Using Contrastive Learning [23.541034347602935]
臨床医のブラックボックスモデルに対する不信は、AI製品の臨床展開を妨げている。
ContrastDiagnosis(ContrastDiagnosis)を提案する。
AUCは0.977で高い診断精度を達成し、高い透明性と説明可能性を維持した。
論文 参考訳(メタデータ) (2024-03-08T13:00:52Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - The role of explainability in creating trustworthy artificial
intelligence for health care: a comprehensive survey of the terminology,
design choices, and evaluation strategies [1.2762298148425795]
透明性の欠如は、医療におけるAIシステムの実装における主要な障壁の1つとして認識されている。
我々は最近の文献をレビューし、説明可能なAIシステムの設計について研究者や実践者にガイダンスを提供する。
我々は、説明可能なモデリングが信頼できるAIに貢献できると結論づけるが、説明可能性の利点は実際に証明する必要がある。
論文 参考訳(メタデータ) (2020-07-31T09:08:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。