論文の概要: From Questions to Clinical Recommendations: Large Language Models Driving Evidence-Based Clinical Decision Making
- arxiv url: http://arxiv.org/abs/2505.10282v1
- Date: Thu, 15 May 2025 13:30:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.333015
- Title: From Questions to Clinical Recommendations: Large Language Models Driving Evidence-Based Clinical Decision Making
- Title(参考訳): 質問からクリニカルレコメンデーションへ:エビデンスに基づく臨床意思決定を駆動する大規模言語モデル
- Authors: Dubai Li, Nan Jiang, Kangping Huang, Ruiqi Tu, Shuyu Ouyang, Huayu Yu, Lin Qiao, Chen Yu, Tianshu Zhou, Danyang Tong, Qian Wang, Mengtao Li, Xiaofeng Zeng, Yu Tian, Xinping Tian, Jingsong Li,
- Abstract要約: Quickerは大規模言語モデル(LLM)を利用したエビデンスベースの臨床意思決定支援システムである。
本研究は,大規模言語モデル(LLM)を用いたエビデンスに基づく臨床意思決定支援システムQuickerを紹介する。
- 参考スコア(独自算出の注目度): 14.48848307485775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Clinical evidence, derived from rigorous research and data analysis, provides healthcare professionals with reliable scientific foundations for informed decision-making. Integrating clinical evidence into real-time practice is challenging due to the enormous workload, complex professional processes, and time constraints. This highlights the need for tools that automate evidence synthesis to support more efficient and accurate decision making in clinical settings. This study introduces Quicker, an evidence-based clinical decision support system powered by large language models (LLMs), designed to automate evidence synthesis and generate clinical recommendations modeled after standard clinical guideline development processes. Quicker implements a fully automated chain that covers all phases, from questions to clinical recommendations, and further enables customized decision-making through integrated tools and interactive user interfaces. To evaluate Quicker's capabilities, we developed the Q2CRBench-3 benchmark dataset, based on clinical guideline development records for three different diseases. Experimental results highlighted Quicker's strong performance, with fine-grained question decomposition tailored to user preferences, retrieval sensitivities comparable to human experts, and literature screening performance approaching comprehensive inclusion of relevant studies. In addition, Quicker-assisted evidence assessment effectively supported human reviewers, while Quicker's recommendations were more comprehensive and logically coherent than those of clinicians. In system-level testing, collaboration between a single reviewer and Quicker reduced the time required for recommendation development to 20-40 minutes. In general, our findings affirm the potential of Quicker to help physicians make quicker and more reliable evidence-based clinical decisions.
- Abstract(参考訳): 厳格な研究とデータ分析から得られた臨床証拠は、医療専門家に情報的意思決定のための信頼できる科学的基盤を提供する。
膨大な作業負荷、複雑な専門的プロセス、時間的制約のために、臨床証拠をリアルタイムの実践に統合することは難しい。
このことは、臨床環境でより効率的で正確な意思決定を支援するエビデンス合成を自動化するツールの必要性を強調している。
本研究は,大規模言語モデル(LLM)を用いたエビデンスベースの臨床意思決定支援システムであるQuickerを紹介し,エビデンス合成の自動化と,標準的な臨床ガイドライン開発プロセスをモデルとした臨床レコメンデーションを生成する。
Quickerは、質問から臨床レコメンデーションまで、すべてのフェーズをカバーする完全に自動化されたチェーンを実装し、統合ツールと対話型ユーザインターフェースを通じて、カスタマイズされた意思決定を可能にする。
Quickerの能力を評価するために,3つの異なる疾患に対する臨床ガイドライン開発記録に基づくQ2CRBench-3ベンチマークデータセットを開発した。
実験の結果、クイッカーの強いパフォーマンス、ユーザーの好みに合わせたきめ細かい質問分解、人間の専門家に匹敵する検索感度、関連する研究の包括的含意に近づいた文献スクリーニング性能が強調された。
さらにクイッカーの支援された証拠評価は、クイッカーの勧告は、臨床医よりも包括的で論理的に整合的であるのに対して、人間のレビュアーを効果的に支持した。
システムレベルのテストでは、単一のレビュアーとQuickerのコラボレーションにより、レコメンデーション開発に必要な時間が20~40分に短縮された。
一般的には、クイッカーが医師がより迅速かつ信頼性の高いエビデンスベースの臨床決定を下すのに役立つ可能性を確認します。
関連論文リスト
- Quantifying the Reasoning Abilities of LLMs on Real-world Clinical Cases [48.87360916431396]
MedR-Benchは1,453例の構造化患者のベンチマークデータセットで、推論基準を付した注釈付きである。
本稿では,3つの批判的診察勧告,診断決定,治療計画を含む枠組みを提案し,患者のケアジャーニー全体をシミュレートする。
このベンチマークを用いて、DeepSeek-R1、OpenAI-o3-mini、Gemini-2.0-Flash Thinkingなど、最先端の5つのLCMを評価した。
論文 参考訳(メタデータ) (2025-03-06T18:35:39Z) - Expertise Is What We Want [0.0]
アプリケーションアーキテクチャ、LLE(Large Language Expert)は、LLM(Large Language Models)の柔軟性とパワーと、Expert Systemsの解釈可能性、説明可能性、信頼性を組み合わせたものです。
LLE(Large Language Expert)システムのパワーを強調するために,新たに癌と診断された患者の作業を支援するLLEを構築した。
論文 参考訳(メタデータ) (2025-02-27T18:05:15Z) - VIEWER: an extensible visual analytics framework for enhancing mental healthcare [2.486545071109632]
VIEWERは自然言語処理とインタラクティブな可視化技術を利用するオープンソースのツールキットである。
英国最大のNHSメンタルヘルストラストの1つで設計され、実装された。
VIEWERは、標準的な臨床情報システムと比較して、性能とタスク完了速度を著しく改善した。
論文 参考訳(メタデータ) (2024-10-25T14:01:13Z) - Large Language Models in the Clinic: A Comprehensive Benchmark [63.21278434331952]
診療所の大規模言語モデル(LLM)をよりよく理解するためのベンチマークであるClimateBenchを構築した。
まず、さまざまな臨床言語の生成、理解、推論タスクを含む11の既存のデータセットを収集します。
次に,現実の実践において複雑だが一般的である6つの新しいデータセットと臨床タスクを構築した。
ゼロショット設定と少数ショット設定の両方で、20個のLDMを広範囲に評価する。
論文 参考訳(メタデータ) (2024-04-25T15:51:06Z) - ClinicalAgent: Clinical Trial Multi-Agent System with Large Language Model-based Reasoning [16.04933261211837]
大規模言語モデル(LLM)とマルチエージェントシステムは、自然言語処理において顕著な能力を示しているが、臨床試験では課題に直面している。
臨床用マルチエージェントシステムである臨床エージェントシステム(ClinicalAgent)について紹介する。
論文 参考訳(メタデータ) (2024-04-23T06:30:53Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - Natural Language Programming in Medicine: Administering Evidence Based Clinical Workflows with Autonomous Agents Powered by Generative Large Language Models [29.05425041393475]
ジェネレーティブ・大型言語モデル(LLM)は医療において大きな可能性を秘めている。
本研究は, シミュレーション3次医療センターにおいて, 自律型エージェントとして機能するLSMの可能性を評価した。
論文 参考訳(メタデータ) (2024-01-05T15:09:57Z) - Emulating Human Cognitive Processes for Expert-Level Medical
Question-Answering with Large Language Models [0.23463422965432823]
BooksMedはLarge Language Model(LLM)に基づいた新しいフレームワークである
人間の認知プロセスをエミュレートして、エビデンスベースの信頼性の高い応答を提供する。
本稿では、専門家レベルのオープンエンドな質問からなるベンチマークであるExpertMedQAを紹介する。
論文 参考訳(メタデータ) (2023-10-17T13:39:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。