論文の概要: Augmenting Clinical Decision-Making with an Interactive and Interpretable AI Copilot: A Real-World User Study with Clinicians in Nephrology and Obstetrics
- arxiv url: http://arxiv.org/abs/2602.00726v1
- Date: Sat, 31 Jan 2026 13:41:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.359269
- Title: Augmenting Clinical Decision-Making with an Interactive and Interpretable AI Copilot: A Real-World User Study with Clinicians in Nephrology and Obstetrics
- Title(参考訳): インタラクティブで解釈可能なAIコパイロットによる臨床意思決定の強化 : 腎臓科医と産婦人科医による実世界のユーザスタディ
- Authors: Yinghao Zhu, Dehao Sui, Zixiang Wang, Xuning Hu, Lei Gu, Yifan Qi, Tianchen Wu, Ling Wang, Yuan Wei, Wen Tang, Zhihan Cui, Yasha Wang, Lequan Yu, Ewen M Harrison, Junyi Gao, Liantao Ma,
- Abstract要約: 共同臨床意思決定のための対話型・解釈可能なAIコラボロであるAICareについて紹介する。
縦断的な電子健康記録を解析することにより、AICareは動的リスク予測を精査可能な可視化に基礎を置いている。
- 参考スコア(独自算出の注目度): 36.981753143345664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clinician skepticism toward opaque AI hinders adoption in high-stakes healthcare. We present AICare, an interactive and interpretable AI copilot for collaborative clinical decision-making. By analyzing longitudinal electronic health records, AICare grounds dynamic risk predictions in scrutable visualizations and LLM-driven diagnostic recommendations. Through a within-subjects counterbalanced study with 16 clinicians across nephrology and obstetrics, we comprehensively evaluated AICare using objective measures (task completion time and error rate), subjective assessments (NASA-TLX, SUS, and confidence ratings), and semi-structured interviews. Our findings indicate AICare's reduced cognitive workload. Beyond performance metrics, qualitative analysis reveals that trust is actively constructed through verification, with interaction strategies diverging by expertise: junior clinicians used the system as cognitive scaffolding to structure their analysis, while experts engaged in adversarial verification to challenge the AI's logic. This work offers design implications for creating AI systems that function as transparent partners, accommodating diverse reasoning styles to augment rather than replace clinical judgment.
- Abstract(参考訳): 不透明なAIに対する臨床の懐疑論は、高用量医療の採用を妨げる。
共同臨床意思決定のための対話型・解釈可能なAIコラボロであるAICareについて紹介する。
縦断的な電子健康記録を解析することにより、AICareは、精査可能な可視化とLCMによる診断勧告に動的リスク予測を基礎にしている。
腎疾患および産婦人科領域の16名の臨床医を対象に,主観的評価 (NASA-TLX, SUS, 信頼性評価) と半構造化面接 (半構造化) を用いて, 客観的評価 (タスク完了時間と誤差率) を総合的に評価した。
以上の結果から,AICareの認知負荷の低減が示唆された。
ジュニア臨床医は、システムを認知的足場として使用し、分析を構造化し、専門家はAIの論理に挑戦する。
この研究は、透明なパートナーとして機能するAIシステムを作るための設計上の意味を提供する。
関連論文リスト
- ClinDEF: A Dynamic Evaluation Framework for Large Language Models in Clinical Reasoning [58.01333341218153]
ClinDEF(ClinDEF)は, LLMにおける臨床推論をシミュレートされた診断対話を用いて評価する動的フレームワークである。
本手法は, 患者を発症し, LLMをベースとした医師と自動患者エージェントとのマルチターンインタラクションを容易にする。
実験により、ClinDEFは最先端のLSMにおいて重要な臨床推論ギャップを効果的に露呈することが示された。
論文 参考訳(メタデータ) (2025-12-29T12:58:58Z) - A Risk Ontology for Evaluating AI-Powered Psychotherapy Virtual Agents [13.721977133773192]
大言語モデル (LLMs) と知的仮想エージェント (Intelligent Virtual Agents) は精神療法士として機能し、メンタルヘルスアクセスを拡大する機会を提供する。
彼らの展開は、ユーザーの損害や自殺など、深刻な有害な結果にも結びついている。
我々は、会話型AI心理療法士の体系的評価に特化して設計された新しいリスクオントロジーを導入する。
論文 参考訳(メタデータ) (2025-05-21T05:01:39Z) - Integrating Explainable AI in Medical Devices: Technical, Clinical and Regulatory Insights and Recommendations [0.0]
本稿では、英国医療・医療製品規制機関(MHRA)が主催する専門家ワーキンググループからの洞察と勧告について述べる。
このグループは、医療専門家、規制当局、データサイエンティストで構成されており、臨床意思決定の文脈において、異なるAIアルゴリズムから出力を評価することに重点を置いている。
臨床環境で医療用AIデバイスの安全性と信頼性を確保するためには,AI手法の導入が不可欠である。
論文 参考訳(メタデータ) (2025-05-10T12:09:19Z) - Over-Relying on Reliance: Towards Realistic Evaluations of AI-Based Clinical Decision Support [12.247046469627554]
私たちは、AIのタスクにおける信頼、信頼、受け入れ、パフォーマンスといった評価指標を超えて進むことを提唱します。
私たちはコミュニティに、AIが医療専門家にもたらす創発的な価値を計測する、生態学的に有効な、ドメインに適した研究環境を優先するよう呼びかけています。
論文 参考訳(メタデータ) (2025-04-10T03:28:56Z) - Emotional Intelligence Through Artificial Intelligence : NLP and Deep Learning in the Analysis of Healthcare Texts [1.9374282535132377]
本論文は,医療関連テキストにおける感情評価における人工知能の利用に関する方法論的考察である。
我々は、感情分析を強化し、感情を分類し、患者の結果を予測するためにAIを利用する多くの研究を精査する。
AIの倫理的応用を保証すること、患者の機密性を保護すること、アルゴリズムの手続きにおける潜在的なバイアスに対処することを含む、継続的な課題がある。
論文 参考訳(メタデータ) (2024-03-14T15:58:13Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Enabling Collaborative Clinical Diagnosis of Infectious Keratitis by
Integrating Expert Knowledge and Interpretable Data-driven Intelligence [28.144658552047975]
感染性角膜炎(IK)の診断における知識誘導診断モデル(KGDM)の性能,解釈可能性,臨床的有用性について検討した。
AIベースのバイオマーカーの診断確率比(DOR)は3.011から35.233の範囲で有効である。
コラボレーションの参加者は、人間とAIの両方を上回るパフォーマンスを達成した。
論文 参考訳(メタデータ) (2024-01-14T02:10:54Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。