論文の概要: Neural Summarization of Electronic Health Records
- arxiv url: http://arxiv.org/abs/2305.15222v1
- Date: Wed, 24 May 2023 15:05:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 15:00:26.605772
- Title: Neural Summarization of Electronic Health Records
- Title(参考訳): 電子健康記録の神経要約
- Authors: Koyena Pal, Seyed Ali Bahrainian, Laura Mercurio, Carsten Eickhoff
- Abstract要約: 本研究では,4つの最先端ニューラルネットワーク要約モデルを用いて,放電要約の様々な部分の自動生成の実現可能性について検討した。
従来の微調整言語モデルでは、レポート全体を要約する性能が向上した。
- 参考スコア(独自算出の注目度): 8.784162652042957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hospital discharge documentation is among the most essential, yet
time-consuming documents written by medical practitioners. The objective of
this study was to automatically generate hospital discharge summaries using
neural network summarization models. We studied various data preparation and
neural network training techniques that generate discharge summaries. Using
nursing notes and discharge summaries from the MIMIC-III dataset, we studied
the viability of the automatic generation of various sections of a discharge
summary using four state-of-the-art neural network summarization models (BART,
T5, Longformer and FLAN-T5). Our experiments indicated that training
environments including nursing notes as the source, and discrete sections of
the discharge summary as the target output (e.g. "History of Present Illness")
improve language model efficiency and text quality. According to our findings,
the fine-tuned BART model improved its ROUGE F1 score by 43.6% against its
standard off-the-shelf version. We also found that fine-tuning the baseline
BART model with other setups caused different degrees of improvement (up to 80%
relative improvement). We also observed that a fine-tuned T5 generally achieves
higher ROUGE F1 scores than other fine-tuned models and a fine-tuned FLAN-T5
achieves the highest ROUGE score overall, i.e., 45.6. For majority of the
fine-tuned language models, summarizing discharge summary report sections
separately outperformed the summarization the entire report quantitatively. On
the other hand, fine-tuning language models that were previously instruction
fine-tuned showed better performance in summarizing entire reports. This study
concludes that a focused dataset designed for the automatic generation of
discharge summaries by a language model can produce coherent Discharge Summary
sections.
- Abstract(参考訳): 病院退院文書は、医療従事者によって書かれた、もっとも必要不可欠な、しかし時間のかかる文書である。
本研究の目的は,ニューラルネットワーク要約モデルを用いて病院退院サマリーを自動的に生成することであった。
放電サマリーを生成する様々なデータ準備とニューラルネットワークトレーニング手法について検討した。
看護ノートとMIMIC-IIIデータセットからの放電サマリーを用いて,4つの最先端ニューラルネットワーク要約モデル(BART,T5,Longformer,FLAN-T5)を用いて,放電サマリーの様々なセクションの自動生成の可能性を検討した。
本実験は,看護ノート等の学習環境と,目標出力としての退院要領の個別部分(例えば「現在の病気の歴史」)が,言語モデルの効率とテキスト品質を向上させることを示唆した。
我々の研究結果によると、細調整されたBARTモデルは標準の市販モデルに対してROUGE F1スコアを43.6%改善した。
また,ベースラインBARTモデルを他のセットアップで微調整することで,改善の度合いが異なる(最大80%の相対的改善)ことも見出した。
また、細調整T5は他の細調整モデルよりも高いROUGE F1スコアを達成し、細調整FLAN-T5は全体的なROUGEスコア、すなわち45.6を達成している。
微調整言語モデルの大多数では, 総括要約報告部は, 別々に, レポート全体を定量的に比較した。
一方,これまで微調整を指導していた微調整言語モデルでは,レポート全体の要約性能が向上した。
本研究は,言語モデルによるアウトレットサマリーの自動生成を目的とした集中型データセットにより,コヒーレント・アウトレット・サマリーを生成できることを結論する。
関連論文リスト
- Enhanced Electronic Health Records Text Summarization Using Large Language Models [0.0]
このプロジェクトは、臨床が優先する、焦点を絞った要約を生成するシステムを作成することで、以前の作業の上に構築される。
提案システムでは,Flan-T5モデルを用いて,臨床専門のトピックに基づいた調整されたERHサマリーを生成する。
論文 参考訳(メタデータ) (2024-10-12T19:36:41Z) - Language Models and Retrieval Augmented Generation for Automated Structured Data Extraction from Diagnostic Reports [2.932283627137903]
この研究は、2つのデータセットを利用していた:7,294の放射線診断報告は、BT-RADS(Brain tumor Reporting and Data System)スコアに注釈付けされ、2,154の病理診断報告は、isocitrate dehydrogenase(IDH)変異のステータスに注釈付けされた。
論文 参考訳(メタデータ) (2024-09-15T15:21:45Z) - Fine-tuning Large Language Models for Automated Diagnostic Screening Summaries [0.024105148723769353]
我々は、精神状態検査から簡潔な要約を生成するために、いくつかの最先端の大規模言語モデル(LLM)を評価した。
確立されたROUGEメトリクスと人間評価器からの入力を用いて、要約生成のための4つの異なるモデルを厳格に評価する。
我々の最高性能の微調整モデルは既存のモデルより優れており、ROUGE-1とROUGE-Lはそれぞれ0.810と0.764である。
論文 参考訳(メタデータ) (2024-03-29T12:25:37Z) - Information-Theoretic Distillation for Reference-less Summarization [67.51150817011617]
本稿では,要約のための情報理論的目的に基づいて,強力な要約器を蒸留する新しい枠組みを提案する。
我々は,教師モデルとしてPythia-2.8Bから出発する。
我々は,ChatGPTと競合する5億8800万のパラメータしか持たないコンパクトだが強力な要約器に到達した。
論文 参考訳(メタデータ) (2024-03-20T17:42:08Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - IUTEAM1 at MEDIQA-Chat 2023: Is simple fine tuning effective for
multilayer summarization of clinical conversations? [0.0]
本稿では, 要約モデルアンサンブルアプローチを解析し, グラフノートと呼ばれる医療報告の総合的精度を向上させる。
実験の結果,各セクションに特化しているモデルのアンサンブルは,より優れた結果をもたらすが,多層/ステージアプローチでは精度が向上しないことがわかった。
論文 参考訳(メタデータ) (2023-06-07T10:47:33Z) - mFACE: Multilingual Summarization with Factual Consistency Evaluation [79.60172087719356]
抽象的な要約は、事前訓練された言語モデルと大規模データセットの可用性のおかげで、近年で新たな関心を集めている。
有望な結果にもかかわらず、現在のモデルはいまだに現実的に矛盾した要約を生み出すことに苦しむ。
事実整合性評価モデルを利用して、多言語要約を改善する。
論文 参考訳(メタデータ) (2022-12-20T19:52:41Z) - Text Embeddings by Weakly-Supervised Contrastive Pre-training [98.31785569325402]
E5は最先端のテキスト埋め込みのファミリーであり、幅広いタスクにうまく転送される。
E5は、テキストの単一ベクトル表現を必要とするタスクに対して、汎用的な埋め込みモデルとして簡単に使用できる。
論文 参考訳(メタデータ) (2022-12-07T09:25:54Z) - Textual Data Augmentation for Patient Outcomes Prediction [67.72545656557858]
本稿では,患者の電子カルテに人工的な臨床ノートを作成するための新しいデータ拡張手法を提案する。
生成言語モデルGPT-2を微調整し、ラベル付きテキストを元のトレーニングデータで合成する。
今回,最も多い患者,すなわち30日間の寛解率について検討した。
論文 参考訳(メタデータ) (2022-11-13T01:07:23Z) - Enhancing Clinical Information Extraction with Transferred Contextual
Embeddings [9.143551270841858]
変換器(BERT)モデルによる双方向表現は、多くの自然言語処理(NLP)タスクにおいて最先端のパフォーマンスを達成した。
BERTをベースとした事前学習モデルは,軽度条件下で健康関連文書に転送可能であることを示す。
論文 参考訳(メタデータ) (2021-09-15T12:22:57Z) - CHEER: Rich Model Helps Poor Model via Knowledge Infusion [69.23072792708263]
我々は、そのようなリッチなモデルを伝達可能な表現に簡潔に要約できる知識注入フレームワークCHEERを開発した。
実験の結果、CHEERは複数の生理的データセットのマクロF1スコアにおいて、ベースラインを5.60%から46.80%上回った。
論文 参考訳(メタデータ) (2020-05-21T21:44:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。