論文の概要: Enhancing Large Language Models for Clinical Decision Support by
Incorporating Clinical Practice Guidelines
- arxiv url: http://arxiv.org/abs/2401.11120v2
- Date: Tue, 23 Jan 2024 19:43:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 11:52:42.452521
- Title: Enhancing Large Language Models for Clinical Decision Support by
Incorporating Clinical Practice Guidelines
- Title(参考訳): 臨床実習ガイドラインを取り入れた大規模言語モデルによる臨床意思決定支援
- Authors: David Oniani, Xizhi Wu, Shyam Visweswaran, Sumit Kapoor, Shravan
Kooragayalu, Katelyn Polanska, Yanshan Wang
- Abstract要約: 大規模言語モデル(LLM)は臨床決定支援(CDS)を大幅に改善する
臨床実習ガイドライン(CPG)をLCMに組み込むための3つの方法を開発した。
症例スタディとして、新型コロナウイルスの外来治療のためのCDSに焦点を当てた。
- 参考スコア(独自算出の注目度): 4.482833270578723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Background Large Language Models (LLMs), enhanced with Clinical Practice
Guidelines (CPGs), can significantly improve Clinical Decision Support (CDS).
However, methods for incorporating CPGs into LLMs are not well studied. Methods
We develop three distinct methods for incorporating CPGs into LLMs: Binary
Decision Tree (BDT), Program-Aided Graph Construction (PAGC), and
Chain-of-Thought-Few-Shot Prompting (CoT-FSP). To evaluate the effectiveness of
the proposed methods, we create a set of synthetic patient descriptions and
conduct both automatic and human evaluation of the responses generated by four
LLMs: GPT-4, GPT-3.5 Turbo, LLaMA, and PaLM 2. Zero-Shot Prompting (ZSP) was
used as the baseline method. We focus on CDS for COVID-19 outpatient treatment
as the case study. Results All four LLMs exhibit improved performance when
enhanced with CPGs compared to the baseline ZSP. BDT outperformed both CoT-FSP
and PAGC in automatic evaluation. All of the proposed methods demonstrated high
performance in human evaluation. Conclusion LLMs enhanced with CPGs demonstrate
superior performance, as compared to plain LLMs with ZSP, in providing accurate
recommendations for COVID-19 outpatient treatment, which also highlights the
potential for broader applications beyond the case study.
- Abstract(参考訳): 臨床実習ガイドライン(CPG)により強化された背景言語モデル(LLM)は、臨床意思決定支援(CDS)を大幅に改善することができる。
しかし、LCGをLSMに組み込む方法は十分に研究されていない。
方法 CPG を LLM に組み込む方法として,バイナリ決定木(BDT),プログラム支援グラフ構築(PAGC),チェーン・オブ・スロー・ショット・プロンプト(CoT-FSP)の3種類を開発した。
提案手法の有効性を評価するために,合成患者記述のセットを作成し,gpt-4,gpt-3.5ターボ,llama,palm 2の4つのllmで生成された応答を自動的および人為的に評価する。
Zero-Shot Prompting (ZSP) はベースライン方式として用いられた。
ケーススタディとして,covid-19外来治療のためのcdに焦点を当てている。
結果: 4つのLCMは, ベースラインZSPと比較して, CPGの強化により性能が向上した。
BDTは自動評価においてCoT-FSPとPAGCの両方に優れていた。
提案手法はすべて人体評価において高い性能を示した。
結論 cpgs で強化された llm は,zsp による平易な llm と比較して,covid-19 外来治療の正確な推奨を提供する点で優れた性能を示している。
関連論文リスト
- A Comparative Study of Recent Large Language Models on Generating Hospital Discharge Summaries for Lung Cancer Patients [19.777109737517996]
本研究の目的は,大規模言語モデル(LLM)が手動要約の負担を軽減することにある。
本研究は, GPT-3.5, GPT-4, GPT-4o, LLaMA 3 8bを含む複数のLCMの放電サマリー生成性能について検討した。
論文 参考訳(メタデータ) (2024-11-06T10:02:50Z) - SeRTS: Self-Rewarding Tree Search for Biomedical Retrieval-Augmented Generation [50.26966969163348]
大規模言語モデル(LLM)は,検索増強世代(RAG)の進展に伴い,生物医学領域において大きな可能性を示した。
既存の検索強化アプローチは、様々なクエリやドキュメント、特に医療知識クエリに対処する上で、課題に直面している。
モンテカルロ木探索(MCTS)と自己回帰パラダイムに基づく自己回帰木探索(SeRTS)を提案する。
論文 参考訳(メタデータ) (2024-06-17T06:48:31Z) - A Dataset and Benchmark for Hospital Course Summarization with Adapted Large Language Models [4.091402760759184]
大規模言語モデル(LLM)は、現実世界のタスクを自動化する際、顕著な能力を示しているが、医療応用の能力は示されていない。
臨床ノートと短い病院コースをカプセル化したMIMIC-IV-BHC(MIMIC-IV-BHC)を導入した。
臨床ノートを入力として,3つのオープンソースLSMと2つの独自LSMに対して,プロンプトベース(文脈内学習)と微調整ベースの適応戦略を適用した。
論文 参考訳(メタデータ) (2024-03-08T23:17:55Z) - Evaluation of General Large Language Models in Contextually Assessing
Semantic Concepts Extracted from Adult Critical Care Electronic Health Record
Notes [17.648021186810663]
本研究の目的は,大規模言語モデル(LLM)の実際の臨床ノートの理解と処理における性能を評価することである。
GPTファミリーモデルは、コスト効率と時間節約能力によって証明された、かなりの効率性を示している。
論文 参考訳(メタデータ) (2024-01-24T16:52:37Z) - Distilling Large Language Models for Matching Patients to Clinical
Trials [3.4068841624198942]
近年の大規模言語モデル(LLMs)の成功は、医療分野における彼らの採用の道を開いた。
本研究は,患者と臨床の整合性に対するプロプライエタリ (GPT-3.5, GPT-4) とオープンソース LLM (LLAMA 7B, 13B, 70B) の併用性について,最初の系統的検討を行った。
この制限された合成データセットを微調整したオープンソースのLLMは、プロプライエタリなデータセットと同等の性能を示した。
論文 参考訳(メタデータ) (2023-12-15T17:11:07Z) - Using Natural Language Explanations to Improve Robustness of In-context Learning [35.18010811754959]
大規模言語モデル(LLM)は、文脈内学習(ICL)を通じて多くのタスクを抽出できる
自然言語説明法(NLE)によるICLの強化は,敵対的データセット上でのLLMの堅牢性を向上させるかを検討する。
論文 参考訳(メタデータ) (2023-11-13T18:49:13Z) - Automated Assessment of Critical View of Safety in Laparoscopic
Cholecystectomy [51.240181118593114]
胆嚢摘出術(胆嚢摘出術)は米国で最も一般的な手術の一つで、年間1.2万回以上の手術が施行されている。
LCは胆管損傷(BDI)の増加と関連しており、致死率と死亡率が高い。
本稿では,LCにおける安全性評価(CVS)の自動化を目的とした深層学習手法を提案する。
論文 参考訳(メタデータ) (2023-09-13T22:01:36Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z) - Large Language Models are Effective Text Rankers with Pairwise Ranking Prompting [65.00288634420812]
Pairwise Ranking Prompting (PRP)は、大規模言語モデル(LLM)の負担を大幅に軽減する手法である。
本研究は,中等級のオープンソースLCMを用いた標準ベンチマークにおいて,最先端のランク付け性能を達成した文献としては初めてである。
論文 参考訳(メタデータ) (2023-06-30T11:32:25Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - Performance of Dual-Augmented Lagrangian Method and Common Spatial
Patterns applied in classification of Motor-Imagery BCI [68.8204255655161]
運動画像に基づく脳-コンピュータインタフェース(MI-BCI)は、神経リハビリテーションのための画期的な技術になる可能性がある。
使用する脳波信号のノイズの性質のため、信頼性の高いBCIシステムは特徴の最適化と抽出のために特別な手順を必要とする。
論文 参考訳(メタデータ) (2020-10-13T20:50:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。