論文の概要: No Black Boxes: Interpretable and Interactable Predictive Healthcare with Knowledge-Enhanced Agentic Causal Discovery
- arxiv url: http://arxiv.org/abs/2505.16288v1
- Date: Thu, 22 May 2025 06:36:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.090133
- Title: No Black Boxes: Interpretable and Interactable Predictive Healthcare with Knowledge-Enhanced Agentic Causal Discovery
- Title(参考訳): ブラックボックスなし:知識に富んだエージェント因果発見による解釈可能で解釈可能な予測型医療
- Authors: Xiaoxue Han, Pengfei Hu, Jun-En Ding, Chang Lu, Feng Liu, Yue Ning,
- Abstract要約: 知識に富んだエージェント駆動因果発見フレームワークであるII-KEAを提案する。
II-KEAは明確な推論と因果解析を通じて解釈可能性を高める。
また、臨床医がカスタマイズされた知識ベースとプロンプトを通じて知識や経験を注入することで、対話性も向上する。
- 参考スコア(独自算出の注目度): 18.456259556887247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models trained on extensive Electronic Health Records (EHR) data have achieved high accuracy in diagnosis prediction, offering the potential to assist clinicians in decision-making and treatment planning. However, these models lack two crucial features that clinicians highly value: interpretability and interactivity. The ``black-box'' nature of these models makes it difficult for clinicians to understand the reasoning behind predictions, limiting their ability to make informed decisions. Additionally, the absence of interactive mechanisms prevents clinicians from incorporating their own knowledge and experience into the decision-making process. To address these limitations, we propose II-KEA, a knowledge-enhanced agent-driven causal discovery framework that integrates personalized knowledge databases and agentic LLMs. II-KEA enhances interpretability through explicit reasoning and causal analysis, while also improving interactivity by allowing clinicians to inject their knowledge and experience through customized knowledge bases and prompts. II-KEA is evaluated on both MIMIC-III and MIMIC-IV, demonstrating superior performance along with enhanced interpretability and interactivity, as evidenced by its strong results from extensive case studies.
- Abstract(参考訳): EHR(Electronic Health Records)データに基づいてトレーニングされたディープラーニングモデルは、診断予測において高い精度を達成し、意思決定と治療計画において臨床医を支援する可能性を提供している。
しかし、これらのモデルには、解釈可能性と相互作用性という2つの重要な特徴が欠落している。
これらのモデルの『ブラックボックス』の性質は、臨床医が予測の背後にある理由を理解するのを難しくし、情報的な決定を下す能力を制限する。
さらに、対話的なメカニズムがないため、臨床医は自身の知識や経験を意思決定プロセスに組み込むことができない。
これらの制約に対処するため、我々は、パーソナライズされた知識データベースとエージェントLLMを統合する知識強化エージェント駆動因果発見フレームワークであるII-KEAを提案する。
II-KEAは、明示的な推論と因果解析を通じて解釈可能性を高め、また、臨床医がカスタマイズされた知識ベースとプロンプトを通じて知識と経験を注入することで、相互作用性を向上させる。
II-KEAはMIMIC-IIIとMIMIC-IVの両方で評価され、広範囲なケーススタディの強い結果から証明されるように、高い解釈性と相互作用性とともに優れた性能を示す。
関連論文リスト
- Towards Next-Generation Medical Agent: How o1 is Reshaping Decision-Making in Medical Scenarios [46.729092855387165]
本稿では,医療用AIエージェントのバックボーンLSMの選択について検討する。
我々の研究結果は、o1の診断精度と一貫性を高める能力を示し、よりスマートでより応答性の高いAIツールへの道を開いた。
論文 参考訳(メタデータ) (2024-11-16T18:19:53Z) - Bridging Stepwise Lab-Informed Pretraining and Knowledge-Guided Learning for Diagnostic Reasoning [20.369746122143063]
本稿では,2つの相補的な情報ソースを結合した2元検定フレームワークを提案する。
外部知識のために,大規模モデルによって強化された階層的言語と意味的関係をエンコードする診断知識グラフ(KG)を構築した。
そこで本研究では,臨床検査信号に基づく段階的推論プロセスに従ってモデルを誘導する,ラボインフォームド・プロキシータスクを提案する。
論文 参考訳(メタデータ) (2024-10-25T20:25:22Z) - Reasoning-Enhanced Healthcare Predictions with Knowledge Graph Community Retrieval [61.70489848327436]
KAREは、知識グラフ(KG)コミュニティレベルの検索と大規模言語モデル(LLM)推論を統合する新しいフレームワークである。
MIMIC-IIIでは最大10.8~15.0%、MIMIC-IVでは12.6~12.7%である。
論文 参考訳(メタデータ) (2024-10-06T18:46:28Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - UIILD: A Unified Interpretable Intelligent Learning Diagnosis Framework
for Intelligent Tutoring Systems [8.354034992258482]
深層学習の強力な表現学習能力と心理メトリクスの解釈可能性から,統合的解釈可能な知的学習診断(UIILD)フレームワークが有用である。
本稿では,2チャンネル学習診断機構 LDM-ID と3チャンネル学習診断機構 LDM-HMI を提案する。
論文 参考訳(メタデータ) (2022-07-07T07:04:22Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - VBridge: Connecting the Dots Between Features, Explanations, and Data
for Healthcare Models [85.4333256782337]
VBridgeは、臨床医の意思決定ワークフローに機械学習の説明をシームレスに組み込むビジュアル分析ツールである。
我々は,臨床医がMLの特徴に慣れていないこと,文脈情報の欠如,コホートレベルの証拠の必要性など,3つの重要な課題を特定した。
症例スタディと専門医4名のインタビューを通じて, VBridgeの有効性を実証した。
論文 参考訳(メタデータ) (2021-08-04T17:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。