論文の概要: DistillNote: LLM-based clinical note summaries improve heart failure diagnosis
- arxiv url: http://arxiv.org/abs/2506.16777v1
- Date: Fri, 20 Jun 2025 06:45:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.357816
- Title: DistillNote: LLM-based clinical note summaries improve heart failure diagnosis
- Title(参考訳): DistillNote: LLMベースの臨床ノートは心不全の診断を改善する
- Authors: Heloisa Oss Boll, Antonio Oss Boll, Leticia Puttlitz Boll, Ameen Abu Hanna, Iacer Calixto,
- Abstract要約: 我々は3つの手法により64,000以上の入場記の要約を生成する。
一段階の要約は、臨床医が関連性および臨床作用性に応じて好んでいる。
蒸留サマリーは79%のテキスト圧縮、最大18.2%の改善を実現している。
- 参考スコア(独自算出の注目度): 1.9074059825851202
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) offer unprecedented opportunities to generate concise summaries of patient information and alleviate the burden of clinical documentation that overwhelms healthcare providers. We present Distillnote, a framework for LLM-based clinical note summarization, and generate over 64,000 admission note summaries through three techniques: (1) One-step, direct summarization, and a divide-and-conquer approach involving (2) Structured summarization focused on independent clinical insights, and (3) Distilled summarization that further condenses the Structured summaries. We test how useful are the summaries by using them to predict heart failure compared to a model trained on the original notes. Distilled summaries achieve 79% text compression and up to 18.2% improvement in AUPRC compared to an LLM trained on the full notes. We also evaluate the quality of the generated summaries in an LLM-as-judge evaluation as well as through blinded pairwise comparisons with clinicians. Evaluations indicate that one-step summaries are favoured by clinicians according to relevance and clinical actionability, while distilled summaries offer optimal efficiency (avg. 6.9x compression-to-performance ratio) and significantly reduce hallucinations. We release our summaries on PhysioNet to encourage future research.
- Abstract(参考訳): 大規模言語モデル(LLM)は、患者情報の簡潔な要約を生成し、医療機関を圧倒する臨床文書の負担を軽減するという前例のない機会を提供する。
本報告では, LLM による臨床メモ要約のためのフレームワークである Distillnote について,(1) 単段階, 直接要約, (2) 独立した臨床所見に着目した構造化要約, (3) 構造化要約をさらに凝縮させる蒸留要約の3つの手法を用いて, 64,000 以上の受入メモ要約を生成する。
本研究は, 心不全の予測に使用するサマリーの有用性を, 原音で訓練したモデルと比較して検証した。
蒸留サマリーは79%のテキスト圧縮、最大18.2%の改善を実現している。
また, LLM-as-judge の評価において生成したサマリーの質を評価するとともに, 臨床医との比較を行った。
一方, 蒸留したサマリーは最適効率(約6.9倍圧縮性能比)を提供し, 幻覚を著しく低減している。
今後の研究を促進するために、PhyloNetの要約を公開します。
関連論文リスト
- Quantifying the Reasoning Abilities of LLMs on Real-world Clinical Cases [48.87360916431396]
MedR-Benchは1,453例の構造化患者のベンチマークデータセットで、推論基準を付した注釈付きである。
本稿では,3つの批判的診察勧告,診断決定,治療計画を含む枠組みを提案し,患者のケアジャーニー全体をシミュレートする。
このベンチマークを用いて、DeepSeek-R1、OpenAI-o3-mini、Gemini-2.0-Flash Thinkingなど、最先端の5つのLCMを評価した。
論文 参考訳(メタデータ) (2025-03-06T18:35:39Z) - A Comparative Study of Recent Large Language Models on Generating Hospital Discharge Summaries for Lung Cancer Patients [19.777109737517996]
本研究の目的は,大規模言語モデル(LLM)が手動要約の負担を軽減することにある。
本研究は, GPT-3.5, GPT-4, GPT-4o, LLaMA 3 8bを含む複数のLCMの放電サマリー生成性能について検討した。
論文 参考訳(メタデータ) (2024-11-06T10:02:50Z) - A dataset and benchmark for hospital course summarization with adapted large language models [4.091402760759184]
大規模言語モデル(LLM)は、現実世界のタスクを自動化する際、顕著な能力を示しているが、医療応用の能力は示されていない。
臨床ノートと短い病院コースをカプセル化したMIMIC-IV-BHC(MIMIC-IV-BHC)を導入した。
臨床ノートを入力として,3つのオープンソースLSMと2つの独自LSMに対して,プロンプトベース(文脈内学習)と微調整ベースの適応戦略を適用した。
論文 参考訳(メタデータ) (2024-03-08T23:17:55Z) - Attribute Structuring Improves LLM-Based Evaluation of Clinical Text Summaries [56.31117605097345]
大規模言語モデル(LLM)は、正確な臨床テキスト要約を生成する可能性を示しているが、根拠付けと評価に関する問題に苦慮している。
本稿では、要約評価プロセスを構成するAttribute Structuring(AS)を用いた一般的な緩和フレームワークについて検討する。
ASは、臨床テキスト要約における人間のアノテーションと自動メトリクスの対応性を一貫して改善する。
論文 参考訳(メタデータ) (2024-03-01T21:59:03Z) - Combining Hierachical VAEs with LLMs for clinically meaningful timeline
summarisation in social media [14.819625185358912]
本稿では,階層型VAEとLPM(LlaMA-2)を組み合わせて,ソーシャルメディア利用者のタイムラインから臨床的に意味のある要約を生成するハイブリッド抽象要約手法を提案する。
得られた要約を,専門家に対する自動評価と臨床専門家による人的評価により評価し,TH-VAEによる時系列要約により,臨床的有用性に富む事実的かつ論理的に整合した要約が得られ,経時的変化を捉えたLCMのみのアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-29T15:42:57Z) - Impact of Large Language Model Assistance on Patients Reading Clinical Notes: A Mixed-Methods Study [46.5728291706842]
臨床記録をより読みやすくするために,大言語モデル(LLM)を用いた患者対応ツールを開発した。
乳がんの既往歴のある患者から寄贈された臨床記録と臨床医からの合成ノートを用いて,本ツールの試験を行った。
論文 参考訳(メタデータ) (2024-01-17T23:14:52Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Human Evaluation and Correlation with Automatic Metrics in Consultation
Note Generation [56.25869366777579]
近年,機械学習モデルによる臨床相談ノートの作成が急速に進んでいる。
5人の臨床医が57件のモック・コンサルテーションを聴き、自作のノートを書き、自動的に生成されたノートを編集し、全てのエラーを抽出する、広範囲にわたる人的評価研究を行った。
単純な文字ベースのLevenshtein距離測定は、BertScoreのような一般的なモデルベースの測定値に比較して、同等に動作します。
論文 参考訳(メタデータ) (2022-04-01T14:04:16Z) - Generating SOAP Notes from Doctor-Patient Conversations Using Modular
Summarization Techniques [43.13248746968624]
私たちは、深い要約モデルを利用してSOAPノートを生成するための最初の完全なパイプラインを紹介します。
本稿では,各要約部に関連する重要な発話を抽出するアルゴリズムであるCluster2Sentを提案する。
本研究は,要約コーパスを構築する際に,要約をセクションに構造化し,証拠を注釈する利点について述べる。
論文 参考訳(メタデータ) (2020-05-04T19:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。