論文の概要: Neural Summarization of Electronic Health Records
- arxiv url: http://arxiv.org/abs/2305.15222v1
- Date: Wed, 24 May 2023 15:05:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 15:00:26.605772
- Title: Neural Summarization of Electronic Health Records
- Title(参考訳): 電子健康記録の神経要約
- Authors: Koyena Pal, Seyed Ali Bahrainian, Laura Mercurio, Carsten Eickhoff
- Abstract要約: 本研究では,4つの最先端ニューラルネットワーク要約モデルを用いて,放電要約の様々な部分の自動生成の実現可能性について検討した。
従来の微調整言語モデルでは、レポート全体を要約する性能が向上した。
- 参考スコア(独自算出の注目度): 8.784162652042957
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hospital discharge documentation is among the most essential, yet
time-consuming documents written by medical practitioners. The objective of
this study was to automatically generate hospital discharge summaries using
neural network summarization models. We studied various data preparation and
neural network training techniques that generate discharge summaries. Using
nursing notes and discharge summaries from the MIMIC-III dataset, we studied
the viability of the automatic generation of various sections of a discharge
summary using four state-of-the-art neural network summarization models (BART,
T5, Longformer and FLAN-T5). Our experiments indicated that training
environments including nursing notes as the source, and discrete sections of
the discharge summary as the target output (e.g. "History of Present Illness")
improve language model efficiency and text quality. According to our findings,
the fine-tuned BART model improved its ROUGE F1 score by 43.6% against its
standard off-the-shelf version. We also found that fine-tuning the baseline
BART model with other setups caused different degrees of improvement (up to 80%
relative improvement). We also observed that a fine-tuned T5 generally achieves
higher ROUGE F1 scores than other fine-tuned models and a fine-tuned FLAN-T5
achieves the highest ROUGE score overall, i.e., 45.6. For majority of the
fine-tuned language models, summarizing discharge summary report sections
separately outperformed the summarization the entire report quantitatively. On
the other hand, fine-tuning language models that were previously instruction
fine-tuned showed better performance in summarizing entire reports. This study
concludes that a focused dataset designed for the automatic generation of
discharge summaries by a language model can produce coherent Discharge Summary
sections.
- Abstract(参考訳): 病院退院文書は、医療従事者によって書かれた、もっとも必要不可欠な、しかし時間のかかる文書である。
本研究の目的は,ニューラルネットワーク要約モデルを用いて病院退院サマリーを自動的に生成することであった。
放電サマリーを生成する様々なデータ準備とニューラルネットワークトレーニング手法について検討した。
看護ノートとMIMIC-IIIデータセットからの放電サマリーを用いて,4つの最先端ニューラルネットワーク要約モデル(BART,T5,Longformer,FLAN-T5)を用いて,放電サマリーの様々なセクションの自動生成の可能性を検討した。
本実験は,看護ノート等の学習環境と,目標出力としての退院要領の個別部分(例えば「現在の病気の歴史」)が,言語モデルの効率とテキスト品質を向上させることを示唆した。
我々の研究結果によると、細調整されたBARTモデルは標準の市販モデルに対してROUGE F1スコアを43.6%改善した。
また,ベースラインBARTモデルを他のセットアップで微調整することで,改善の度合いが異なる(最大80%の相対的改善)ことも見出した。
また、細調整T5は他の細調整モデルよりも高いROUGE F1スコアを達成し、細調整FLAN-T5は全体的なROUGEスコア、すなわち45.6を達成している。
微調整言語モデルの大多数では, 総括要約報告部は, 別々に, レポート全体を定量的に比較した。
一方,これまで微調整を指導していた微調整言語モデルでは,レポート全体の要約性能が向上した。
本研究は,言語モデルによるアウトレットサマリーの自動生成を目的とした集中型データセットにより,コヒーレント・アウトレット・サマリーを生成できることを結論する。
関連論文リスト
- IUTEAM1 at MEDIQA-Chat 2023: Is simple fine tuning effective for
multilayer summarization of clinical conversations? [0.0]
本稿では, 要約モデルアンサンブルアプローチを解析し, グラフノートと呼ばれる医療報告の総合的精度を向上させる。
実験の結果,各セクションに特化しているモデルのアンサンブルは,より優れた結果をもたらすが,多層/ステージアプローチでは精度が向上しないことがわかった。
論文 参考訳(メタデータ) (2023-06-07T10:47:33Z) - mFACE: Multilingual Summarization with Factual Consistency Evaluation [79.60172087719356]
抽象的な要約は、事前訓練された言語モデルと大規模データセットの可用性のおかげで、近年で新たな関心を集めている。
有望な結果にもかかわらず、現在のモデルはいまだに現実的に矛盾した要約を生み出すことに苦しむ。
事実整合性評価モデルを利用して、多言語要約を改善する。
論文 参考訳(メタデータ) (2022-12-20T19:52:41Z) - Text Embeddings by Weakly-Supervised Contrastive Pre-training [98.31785569325402]
E5は最先端のテキスト埋め込みのファミリーであり、幅広いタスクにうまく転送される。
E5は、テキストの単一ベクトル表現を必要とするタスクに対して、汎用的な埋め込みモデルとして簡単に使用できる。
論文 参考訳(メタデータ) (2022-12-07T09:25:54Z) - Textual Data Augmentation for Patient Outcomes Prediction [67.72545656557858]
本稿では,患者の電子カルテに人工的な臨床ノートを作成するための新しいデータ拡張手法を提案する。
生成言語モデルGPT-2を微調整し、ラベル付きテキストを元のトレーニングデータで合成する。
今回,最も多い患者,すなわち30日間の寛解率について検討した。
論文 参考訳(メタデータ) (2022-11-13T01:07:23Z) - Medical Scientific Table-to-Text Generation with Human-in-the-Loop under
the Data Sparsity Constraint [11.720364723821993]
効率的なテーブル・ツー・テキスト要約システムは、このデータをレポートにまとめる手作業を大幅に減らすことができる。
しかし、実際には、この問題は、正確で信頼性の高い出力を生成するための最先端の自然言語生成モデルの、データポーカリティ、データポーサリティ、および機能不全によって大きく妨げられている。
本稿では, 自動補正, コピー機構, 合成データ拡張によって強化された新しい2段階アーキテクチャを用いて, テーブル・ツー・テキスト・アプローチを提案し, それらの課題に対処する。
論文 参考訳(メタデータ) (2022-05-24T21:10:57Z) - Enhancing Clinical Information Extraction with Transferred Contextual
Embeddings [9.143551270841858]
変換器(BERT)モデルによる双方向表現は、多くの自然言語処理(NLP)タスクにおいて最先端のパフォーマンスを達成した。
BERTをベースとした事前学習モデルは,軽度条件下で健康関連文書に転送可能であることを示す。
論文 参考訳(メタデータ) (2021-09-15T12:22:57Z) - Improving Zero and Few-Shot Abstractive Summarization with Intermediate
Fine-tuning and Data Augmentation [101.26235068460551]
大規模テキストコーパス上での自己教師対象による事前学習モデルは、英語テキスト要約タスクにおける最先端のパフォーマンスを達成する。
モデルは通常、数十万のデータポイントで微調整されるが、これは新しいニッチなドメインに要約を適用する際に、実現不可能な要件である。
我々は、教師なし、データセット固有の方法で要約のための訓練済みモデルを微調整するための、WikiTransferと呼ばれる新しい一般化可能な手法を紹介した。
論文 参考訳(メタデータ) (2020-10-24T08:36:49Z) - Predicting Clinical Diagnosis from Patients Electronic Health Records
Using BERT-based Neural Networks [62.9447303059342]
医療コミュニティにおけるこの問題の重要性を示す。
本稿では,変換器 (BERT) モデルによる2方向表現の分類順序の変更について述べる。
約400万人のユニークな患者訪問からなる、大規模なロシアのEHRデータセットを使用します。
論文 参考訳(メタデータ) (2020-07-15T09:22:55Z) - CHEER: Rich Model Helps Poor Model via Knowledge Infusion [69.23072792708263]
我々は、そのようなリッチなモデルを伝達可能な表現に簡潔に要約できる知識注入フレームワークCHEERを開発した。
実験の結果、CHEERは複数の生理的データセットのマクロF1スコアにおいて、ベースラインを5.60%から46.80%上回った。
論文 参考訳(メタデータ) (2020-05-21T21:44:21Z) - Learning by Semantic Similarity Makes Abstractive Summarization Better [13.324006587838522]
近年のLM, BART, およびベンチマークデータセットCNN/DMの参照要約を比較した。
興味深いことに、モデル生成サマリーは参照サマリーと比較して高いスコアを受け取る。
論文 参考訳(メタデータ) (2020-02-18T17:59:02Z) - The Utility of General Domain Transfer Learning for Medical Language
Tasks [1.5459429010135775]
本研究の目的は,医療自然言語処理(NLP)タスクに適用したトランスファーラーニング手法とトランスフォーマーベースモデルの有効性を解析することである。
一般的なテキスト転送学習は、放射線コーパス上の医学的NLPタスクにおいて、最先端の結果を生成するための有効な技術である可能性がある。
論文 参考訳(メタデータ) (2020-02-16T20:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。