論文の概要: Large Language Model-Based Generation of Discharge Summaries
- arxiv url: http://arxiv.org/abs/2512.06812v1
- Date: Sun, 07 Dec 2025 12:14:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.541055
- Title: Large Language Model-Based Generation of Discharge Summaries
- Title(参考訳): 大規模言語モデルに基づく放電サマリの生成
- Authors: Tiago Rodrigues, Carla Teixeira Lopes,
- Abstract要約: 退院サマリー(英: discharge summaries)とは、医療専門家が、患者の医療施設への訪問を詳述した文書である。
オープンソースモデル(Mistral, Llama 2)からプロプライエタリシステム(GPT-3, GPT-4, Gemini 1.5 Pro)まで,5つの大規模言語モデルの利用について検討する。
以上の結果から,プロプライエタリモデル,特にワンショットプロンプト付きジェミニは,他のモデルよりも優れており,ゴールド標準モデルと最も類似したサマリーが得られた。
- 参考スコア(独自算出の注目度): 0.21485350418225238
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Discharge Summaries are documents written by medical professionals that detail a patient's visit to a care facility. They contain a wealth of information crucial for patient care, and automating their generation could significantly reduce the effort required from healthcare professionals, minimize errors, and ensure that critical patient information is easily accessible and actionable. In this work, we explore the use of five Large Language Models on this task, from open-source models (Mistral, Llama 2) to proprietary systems (GPT-3, GPT-4, Gemini 1.5 Pro), leveraging MIMIC-III summaries and notes. We evaluate them using exact-match, soft-overlap, and reference-free metrics. Our results show that proprietary models, particularly Gemini with one-shot prompting, outperformed others, producing summaries with the highest similarity to the gold-standard ones. Open-source models, while promising, especially Mistral after fine-tuning, lagged in performance, often struggling with hallucinations and repeated information. Human evaluation by a clinical expert confirmed the practical utility of the summaries generated by proprietary models. Despite the challenges, such as hallucinations and missing information, the findings suggest that LLMs, especially proprietary models, are promising candidates for automatic discharge summary generation as long as data privacy is ensured.
- Abstract(参考訳): 退院補助は、患者の医療施設への訪問を詳述した医療専門家によって書かれた文書である。
それらは、患者のケアに不可欠な豊富な情報を含み、その生成を自動化することで、医療専門家の労力を大幅に削減し、エラーを最小限に抑え、重要な患者情報が容易にアクセスし、実行可能なことを保証する。
本研究では,オープンソースモデル(Mistral, Llama 2)からプロプライエタリシステム(GPT-3, GPT-4, Gemini 1.5 Pro)まで,MIMIC-III要約とノートを活用した5つの大規模言語モデルの利用について検討する。
正確なマッチング、ソフトオーバーラップ、参照なしメトリクスを用いて評価する。
以上の結果から,プロプライエタリモデル,特にワンショットプロンプト付きジェミニは,他のモデルよりも優れており,ゴールド標準モデルと最も類似したサマリーが得られた。
オープンソースモデルは有望だが、特に微調整後のMistralはパフォーマンスに悩まされ、幻覚や繰り返しの情報に苦しんだ。
臨床専門家による人的評価は、プロプライエタリなモデルによって生成された要約の実用性を確認した。
幻覚や情報不足といった課題にもかかわらず、LSM、特にプロプライエタリなモデルは、データのプライバシーが保証される限り、自動放電サマリ生成の候補を約束していることを示唆している。
関連論文リスト
- Self-Consistency as a Free Lunch: Reducing Hallucinations in Vision-Language Models via Self-Reflection [71.8243083897721]
視覚言語モデルは、しばしば詳細を幻覚させ、既存のオブジェクトを生成するか、出力信頼性を損なう不正確な属性を生成する。
本稿では、長文応答と短文応答の自己整合性を利用して、学習のための選好ペアを生成する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-27T10:37:11Z) - Towards Adapting Open-Source Large Language Models for Expert-Level Clinical Note Generation [19.08691249610632]
本研究では,オープンソースのLLaMA-213億パラメータモデルに対する包括的ドメイン・タスク特化プロセスを提案する。
我々のプロセスには、AIと人間のフィードバックの両方から、継続的な事前トレーニング、教師付き微調整、強化学習が組み込まれています。
得られたLLaMA-Clinicは,医師が作成したものと同等の精度で臨床記録を作成できる。
論文 参考訳(メタデータ) (2024-04-25T15:34:53Z) - Large Language Model Distilling Medication Recommendation Model [58.94186280631342]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - Retrieval-Augmented and Knowledge-Grounded Language Models for Faithful Clinical Medicine [68.7814360102644]
本稿では,Re$3$Writer法を提案する。
本手法が患者の退院指示生成に有効であることを示す。
論文 参考訳(メタデータ) (2022-10-23T16:34:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。