論文の概要: Retrospective Comparative Analysis of Prostate Cancer In-Basket Messages: Responses from Closed-Domain LLM vs. Clinical Teams
- arxiv url: http://arxiv.org/abs/2409.18290v1
- Date: Thu, 26 Sep 2024 21:00:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 07:10:35.834414
- Title: Retrospective Comparative Analysis of Prostate Cancer In-Basket Messages: Responses from Closed-Domain LLM vs. Clinical Teams
- Title(参考訳): 前立腺癌In-Basketメッセージの回顧的比較分析 : 閉鎖型LDMと臨床チームとの反応
- Authors: Yuexing Hao, Jason M. Holmes, Jared Hobson, Alexandra Bennett, Daniel K. Ebner, David M. Routman, Satomi Shiraishi, Samir H. Patel, Nathan Y. Yu, Chris L. Hallemeier, Brooke E. Ball, Mark R. Waddle, Wei Liu,
- Abstract要約: 我々は,GPT-4をベースとしたLarge Language Model (LLM) であるRadOnc-GPTを紹介する。
RandOnc-GPT は以前記録された158個のバスケット内メッセージインタラクションに対して評価された。
- 参考スコア(独自算出の注目度): 33.940049248011015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In-basket message interactions play a crucial role in physician-patient communication, occurring during all phases (pre-, during, and post) of a patient's care journey. However, responding to these patients' inquiries has become a significant burden on healthcare workflows, consuming considerable time for clinical care teams. To address this, we introduce RadOnc-GPT, a specialized Large Language Model (LLM) powered by GPT-4 that has been designed with a focus on radiotherapeutic treatment of prostate cancer with advanced prompt engineering, and specifically designed to assist in generating responses. We integrated RadOnc-GPT with patient electronic health records (EHR) from both the hospital-wide EHR database and an internal, radiation-oncology-specific database. RadOnc-GPT was evaluated on 158 previously recorded in-basket message interactions. Quantitative natural language processing (NLP) analysis and two grading studies with clinicians and nurses were used to assess RadOnc-GPT's responses. Our findings indicate that RadOnc-GPT slightly outperformed the clinical care team in "Clarity" and "Empathy," while achieving comparable scores in "Completeness" and "Correctness." RadOnc-GPT is estimated to save 5.2 minutes per message for nurses and 2.4 minutes for clinicians, from reading the inquiry to sending the response. Employing RadOnc-GPT for in-basket message draft generation has the potential to alleviate the workload of clinical care teams and reduce healthcare costs by producing high-quality, timely responses.
- Abstract(参考訳): In-basketメッセージインタラクションは、患者のケアジャーニーのすべてのフェーズ(前、中、後)で起こる、医師と患者のコミュニケーションにおいて重要な役割を果たす。
しかし,これらの患者の質問に対する回答は,医療のワークフローに大きな負担となり,臨床医療チームにとってかなりの時間を要するようになった。
そこで本研究では,GPT-4を用いた特殊な大規模言語モデル(LLM)であるRadOnc-GPTを紹介する。
我々は,RadOnc-GPTを患者電子健康記録(EHR)と統合した。
RadOnc-GPTは、以前記録された158個のバスケメッセージインタラクションに対して評価された。
RadOnc-GPTの反応を評価するために, 定量的自然言語処理(NLP)分析と, 臨床医と看護師による2つのグレーディングスタディを用いた。
以上の結果から,RadOnc-GPTはClarityとEmpathyで臨床チームをわずかに上回り,CompletenessとCorrectnessでは同等のスコアを得た。
RadOnc-GPTは、看護師のメッセージに5.2分、臨床医のメッセージに2.4分節約すると見積もられている。
RadOnc-GPTを社内メッセージのドラフト生成に利用することで、臨床ケアチームの作業負荷を軽減し、高品質でタイムリーなレスポンスを生み出すことで医療コストを削減できる可能性がある。
関連論文リスト
- Assessing Empathy in Large Language Models with Real-World Physician-Patient Interactions [9.327472312657392]
医療領域へのLarge Language Models(LLMs)の統合は、患者のケアとサポートを大幅に強化する可能性がある。
本研究は、ChatGPTが医師が通常提供するものよりも共感の度合いが高いかどうかを調査する。
マヨクリニックから患者メッセージと医師の回答の非特定データセットを収集し,ChatGPTを用いて代替応答を生成する。
論文 参考訳(メタデータ) (2024-05-26T01:58:57Z) - The Potential and Pitfalls of using a Large Language Model such as
ChatGPT or GPT-4 as a Clinical Assistant [12.017491902296836]
ChatGPTとGPT-4はいくつかの医療領域で有望な性能を示した。
われわれはChatGPTとGPT-4を用いて2つの分析を行った。
患者の評価では、GPT-4は4回に3回、正確に診断できる。
論文 参考訳(メタデータ) (2023-07-16T21:19:47Z) - RECAP-KG: Mining Knowledge Graphs from Raw GP Notes for Remote COVID-19
Assessment in Primary Care [45.43645878061283]
本稿では,患者相談の前後に書かれた生のGP医療ノートから知識グラフ構築を行うフレームワークを提案する。
私たちの知識グラフには、既存の患者の症状、その持続時間、重症度に関する情報が含まれています。
本フレームワークを英国における新型コロナウイルス患者の相談ノートに適用する。
論文 参考訳(メタデータ) (2023-06-17T23:35:51Z) - Utilizing ChatGPT to Enhance Clinical Trial Enrollment [2.3551878971309947]
本稿では,大規模言語モデルであるChatGPTを用いて患者関連情報を非構造化臨床ノートから抽出する自動アプローチを提案する。
2つのベンチマーク検索コレクションで実施した経験的評価では,既存手法と比較して検索性能が向上した。
以上の結果から,ChatGPTを医療サービスの品質を確保し,患者への直接的なリスクを最小限に抑えつつ,臨床治験の増進に活用する可能性が示唆された。
論文 参考訳(メタデータ) (2023-06-03T10:54:23Z) - Generating medically-accurate summaries of patient-provider dialogue: A
multi-stage approach using large language models [6.252236971703546]
効果的な要約は、対話におけるすべての医学的関連情報を一貫性と精度良く捉えることが要求される。
本稿では, 医療会話の要約問題に, タスクを, より小さな対話に基づくタスクに分解することで対処する。
論文 参考訳(メタデータ) (2023-05-10T08:48:53Z) - Consultation Checklists: Standardising the Human Evaluation of Medical
Note Generation [58.54483567073125]
本稿では,コンサルテーションチェックリストの評価を基礎として,客観性向上を目的としたプロトコルを提案する。
このプロトコルを用いた最初の評価研究において,アノテータ間合意の良好なレベルを観察した。
論文 参考訳(メタデータ) (2022-11-17T10:54:28Z) - Human Evaluation and Correlation with Automatic Metrics in Consultation
Note Generation [56.25869366777579]
近年,機械学習モデルによる臨床相談ノートの作成が急速に進んでいる。
5人の臨床医が57件のモック・コンサルテーションを聴き、自作のノートを書き、自動的に生成されたノートを編集し、全てのエラーを抽出する、広範囲にわたる人的評価研究を行った。
単純な文字ベースのLevenshtein距離測定は、BertScoreのような一般的なモデルベースの測定値に比較して、同等に動作します。
論文 参考訳(メタデータ) (2022-04-01T14:04:16Z) - PriMock57: A Dataset Of Primary Care Mock Consultations [66.29154510369372]
本稿では,57件のモック・プライマリ・ケア・コンサルテーションからなる,パブリック・アクセス・高品質データセットの開発について詳述する。
我々の研究は、データセットが会話型医療ASRのベンチマークや、テキストからのコンサルティングノート生成にどのように使用できるかを説明する。
論文 参考訳(メタデータ) (2022-04-01T10:18:28Z) - BiteNet: Bidirectional Temporal Encoder Network to Predict Medical
Outcomes [53.163089893876645]
本稿では,患者の医療旅行におけるコンテキスト依存と時間的関係を捉える,新たな自己注意機構を提案する。
エンド・ツー・エンドの双方向時間エンコーダネットワーク(BiteNet)が患者の旅路の表現を学習する。
実世界のEHRデータセットを用いた2つの教師付き予測と2つの教師なしクラスタリングタスクにおける手法の有効性を評価した。
論文 参考訳(メタデータ) (2020-09-24T00:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。