論文の概要: Efficient Fine-Tuning of Large Language Models for Automated Medical Documentation
- arxiv url: http://arxiv.org/abs/2409.09324v1
- Date: Sat, 14 Sep 2024 06:02:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 21:19:23.557174
- Title: Efficient Fine-Tuning of Large Language Models for Automated Medical Documentation
- Title(参考訳): 医療文書自動作成のための大規模言語モデルの効率的な微調整
- Authors: Hui Yi Leong, Yi Fan Gao, Ji Shuai, Uktu Pamuksuz,
- Abstract要約: 本研究は,医学的対話から医療報告を自動生成することを目的とした,微調整型大規模言語モデル(LLM)であるMediGenを紹介する。
オープンソース事前訓練モデルの微調整に最先端の方法論を活用することで、MediGenは臨床相互作用の転写および要約において高い精度を達成する。
- 参考スコア(独自算出の注目度): 3.642260953795558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scientific research indicates that for every hour spent in direct patient care, physicians spend nearly two additional hours on administrative tasks, particularly on electronic health records (EHRs) and desk work. This excessive administrative burden not only reduces the time available for patient care but also contributes to physician burnout and inefficiencies in healthcare delivery. To address these challenges, this study introduces MediGen, a fine-tuned large language model (LLM) designed to automate the generation of medical reports from medical dialogues. By leveraging state-of-the-art methodologies for fine-tuning open-source pretrained models, including LLaMA3-8B, MediGen achieves high accuracy in transcribing and summarizing clinical interactions. The fine-tuned LLaMA3-8B model demonstrated promising results, achieving a ROUGE score of 58% and a BERTScore-F1 of 72%, indicating its effectiveness in generating accurate and clinically relevant medical reports. These findings suggest that MediGen has the potential to significantly reduce the administrative workload on physicians, improving both healthcare efficiency and physician well-being.
- Abstract(参考訳): 科学的な研究によると、直接治療に費やされる1時間ごとに、医師は管理業務、特に電子健康記録(EHR)と机作業に2時間近くを費やしている。
この過剰な管理負担は、患者の治療に使える時間を短縮するだけでなく、医師のバーンアウトや医療提供の非効率に寄与する。
これらの課題に対処するため,医学的対話から医療報告を自動生成する大規模言語モデル(LLM)であるMediGenを紹介した。
LLaMA3-8Bを含むオープンソース事前訓練モデルに最先端の方法論を活用することで、臨床相互作用の転写と要約の精度を向上する。
LLaMA3-8Bモデルでは,ROUGEスコアが58%,BERTScore-F1が72%と有望な結果を示した。
これらの結果から,メディジェンは医師の業務負担を大幅に削減し,医療効率と医師の健康を向上する可能性が示唆された。
関連論文リスト
- Adapting LLMs for the Medical Domain in Portuguese: A Study on Fine-Tuning and Model Evaluation [1.922611370494431]
本研究は,ポルトガル語における医療エージェントとしての大規模言語モデル(LLM)の性能を評価する。
InternLM2モデルは、当初医療データに関するトレーニングを受けており、全体的なパフォーマンスが最高であった。
ChatBodeから派生したDrBodeモデルは、取得した医療知識を壊滅的に忘れる現象を示した。
論文 参考訳(メタデータ) (2024-09-30T19:10:03Z) - A GEN AI Framework for Medical Note Generation [3.7444770630637167]
MediNotesは、医療会話からSOAP(Subjective, Objective, Assessment, Plan)ノートの作成を自動化するために設計された高度な生成AIフレームワークである。
MediNotesはLarge Language Models (LLM)、Retrieval-Augmented Generation (RAG)、Automatic Speech Recognition (ASR)を統合し、テキスト入力と音声入力の両方をリアルタイムで、記録されたオーディオからキャプチャし、処理する。
論文 参考訳(メタデータ) (2024-09-27T23:05:02Z) - Enhancing Healthcare through Large Language Models: A Study on Medical Question Answering [13.237829215746443]
Sentence-t5 + Mistral 7B モデルは、正確な医療回答の理解と生成に優れている。
以上の結果から,医学的文脈における高度なLCMの統合の可能性が示唆された。
論文 参考訳(メタデータ) (2024-08-08T00:35:39Z) - STLLaVA-Med: Self-Training Large Language and Vision Assistant for Medical Question-Answering [58.79671189792399]
STLLaVA-Medは、医療ビジュアルインストラクションデータを自動生成できるポリシーモデルを訓練するために設計されている。
STLLaVA-Medの有効性とデータ効率を3つの主要な医用視覚質問応答(VQA)ベンチマークで検証した。
論文 参考訳(メタデータ) (2024-06-28T15:01:23Z) - Enhancing Clinical Efficiency through LLM: Discharge Note Generation for Cardiac Patients [1.379398224469229]
本研究は、特に心臓病患者において、手動で放電ノートを作成する際の非効率性と不正確性について論じる。
本研究は,大規模言語モデル(LLM)の文書化プロセスの向上能力を評価する。
評価された様々なモデルの中で、Mistral-7Bは正確に放電音を発生させることで識別された。
論文 参考訳(メタデータ) (2024-04-08T01:55:28Z) - MedKP: Medical Dialogue with Knowledge Enhancement and Clinical Pathway
Encoding [48.348511646407026]
本稿では,知識向上と臨床パスウェイ符号化フレームワークを用いた医療対話について紹介する。
このフレームワークは、医療知識グラフを介して外部知識増強モジュールと、医療機関および医師の行動を介して、内部臨床経路をコードする。
論文 参考訳(メタデータ) (2024-03-11T10:57:45Z) - MEDITRON-70B: Scaling Medical Pretraining for Large Language Models [91.25119823784705]
大きな言語モデル(LLM)は、医療知識へのアクセスを民主化することができる。
医療領域に適応した7Bおよび70BパラメータのオープンソースLLMスイートであるMEDITRONをリリースする。
論文 参考訳(メタデータ) (2023-11-27T18:49:43Z) - Enhancing Summarization Performance through Transformer-Based Prompt
Engineering in Automated Medical Reporting [0.49478969093606673]
2ショットプロンプトアプローチとスコープとドメインコンテキストの組み合わせは、他のメソッドよりも優れています。
自動化されたレポートは、人間の参照の約2倍の長さである。
論文 参考訳(メタデータ) (2023-11-22T09:51:53Z) - ChiMed-GPT: A Chinese Medical Large Language Model with Full Training Regime and Better Alignment to Human Preferences [51.66185471742271]
我々は中国医学領域向けに明示的に設計されたベンチマークLSMであるChiMed-GPTを提案する。
ChiMed-GPTは、事前訓練、SFT、RLHFを含む総合的な訓練体制を実施。
我々は,ChiMed-GPTを患者識別に関する態度尺度の実行を促すことによって,潜在的なバイアスを分析した。
論文 参考訳(メタデータ) (2023-11-10T12:25:32Z) - MedAlign: A Clinician-Generated Dataset for Instruction Following with
Electronic Medical Records [60.35217378132709]
大型言語モデル(LLM)は、人間レベルの流布で自然言語の指示に従うことができる。
医療のための現実的なテキスト生成タスクにおけるLCMの評価は依然として困難である。
我々は、EHRデータのための983の自然言語命令のベンチマークデータセットであるMedAlignを紹介する。
論文 参考訳(メタデータ) (2023-08-27T12:24:39Z) - Predicting Patient Readmission Risk from Medical Text via Knowledge
Graph Enhanced Multiview Graph Convolution [67.72545656557858]
本稿では,電子健康記録の医用テキストを予測に用いる新しい手法を提案する。
外部知識グラフによって強化された多視点グラフを有する患者の退院サマリーを表現している。
実験により,本手法の有効性が証明され,最先端の性能が得られた。
論文 参考訳(メタデータ) (2021-12-19T01:45:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。