論文の概要: Leveraging Summary Guidance on Medical Report Summarization
- arxiv url: http://arxiv.org/abs/2302.04001v1
- Date: Wed, 8 Feb 2023 11:21:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 16:38:13.734519
- Title: Leveraging Summary Guidance on Medical Report Summarization
- Title(参考訳): 医療報告書要約の概要指導の活用
- Authors: Yunqi Zhu, Xuebing Yang, Yuanyuan Wu, Wensheng Zhang
- Abstract要約: 本研究は,D DISCHARGE, ECHO, RADIOLOGYと名付けられ,50K, 16K, 378Kのレポートと要約を含む3つの大規模医療用テキストデータセットを提案する。
我々は,提案したデータセットに対して,BERT2BERT,T5-large,BARTなど,事前学習したエンコーダ・デコーダ言語モデルを用いて,自動抽象要約の説得力のあるベースラインを実装した。
実験により,提案手法により得られたROUGEスコアとBERTScoreの改善が確認され,より大きなモデルであるT5-largeよりも優れた結果が得られた。
- 参考スコア(独自算出の注目度): 5.601559340796398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study presents three deidentified large medical text datasets, named
DISCHARGE, ECHO and RADIOLOGY, which contain 50K, 16K and 378K pairs of report
and summary that are derived from MIMIC-III, respectively. We implement
convincing baselines of automated abstractive summarization on the proposed
datasets with pre-trained encoder-decoder language models, including BERT2BERT,
T5-large and BART. Further, based on the BART model, we leverage the sampled
summaries from the train set as prior knowledge guidance, for encoding
additional contextual representations of the guidance with the encoder and
enhancing the decoding representations in the decoder. The experimental results
confirm the improvement of ROUGE scores and BERTScore made by the proposed
method, outperforming the larger model T5-large.
- Abstract(参考訳): 本研究は,MIMIC-IIIから抽出した50K,16K,378Kのレポートと要約を含む,D DISCHARGE,ECHO,RADIOLOGYの3つの大規模医療用テキストデータセットについて述べる。
我々は,提案したデータセットに対して,BERT2BERT,T5-large,BARTなど,事前学習したエンコーダ・デコーダ言語モデルを用いて,自動抽象要約の説得力のあるベースラインを実装した。
さらに,BARTモデルに基づいて,列車セットのサンプル要約を事前知識指導として利用し,エンコーダによる誘導の文脈表現の追加を符号化し,デコーダにおける復号表現の強化を図る。
実験により,提案手法により得られたROUGEスコアとBERTScoreの改善が確認され,より大きなモデルであるT5-largeよりも優れていた。
関連論文リスト
- Multi-perspective Improvement of Knowledge Graph Completion with Large
Language Models [95.31941227776711]
我々は,文脈知識の不足を補うMPIKGCを提案し,大規模言語モデル(LLM)をクエリすることでKGCを改善する。
我々は4つの記述に基づくKGCモデルと4つのデータセットに基づくフレームワークの広範囲な評価を行い、リンク予測とトリプルト分類のタスクについて検討した。
論文 参考訳(メタデータ) (2024-03-04T12:16:15Z) - Can GPT-3.5 Generate and Code Discharge Summaries? [47.15223342232822]
ICD-10のコード記述リストに基づいて,9,606個の放電サマリーを生成し,符号化した。
ニューラルネットワークモデルはベースラインと拡張データに基づいて訓練された。
マイクロF1スコアとマクロF1スコアを全コードセット、生成コードおよびそれらの家族について報告する。
論文 参考訳(メタデータ) (2024-01-24T15:10:13Z) - Deep Representation Learning for Open Vocabulary
Electroencephalography-to-Text Decoding [6.014363449216054]
神経科学に現代的な表現型学習アプローチをもたらす非侵襲的な脳記録のためのエンドツーエンドのディープラーニングフレームワークを提案する。
BLEU-1スコアは42.75%,ROUGE-1-F33.28%,BERTScore-F53.86%で,それぞれ3.38%,8.43%,6.31%であった。
論文 参考訳(メタデータ) (2023-11-15T08:03:09Z) - PeTailor: Improving Large Language Model by Tailored Chunk Scorer in
Biomedical Triple Extraction [12.03282304393055]
バイオメディカルトリプル抽出のための新しい検索フレームワークPeTailorを提案する。
提案手法は,GM-CIHTと2つの標準バイオメディカルトリプル抽出データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-27T20:15:23Z) - Large Language Models and Control Mechanisms Improve Text Readability of
Biomedical Abstracts [17.008098084175323]
本稿では,生物医学的抽象的単純化作業における最先端の大規模言語モデル(LLM)の能力について検討する。
適用方法は、ドメインファインチューニングとプロンプトベースの学習を含む。
BLEU,ROUGE,SARI,BERTscoreなど,さまざまな自動評価指標を用い,人的評価を行った。
論文 参考訳(メタデータ) (2023-09-22T22:47:32Z) - Neural Summarization of Electronic Health Records [8.784162652042957]
本研究では,4つの最先端ニューラルネットワーク要約モデルを用いて,放電要約の様々な部分の自動生成の実現可能性について検討した。
従来の微調整言語モデルでは、レポート全体を要約する性能が向上した。
論文 参考訳(メタデータ) (2023-05-24T15:05:53Z) - Text Embeddings by Weakly-Supervised Contrastive Pre-training [98.31785569325402]
E5は最先端のテキスト埋め込みのファミリーであり、幅広いタスクにうまく転送される。
E5は、テキストの単一ベクトル表現を必要とするタスクに対して、汎用的な埋め込みモデルとして簡単に使用できる。
論文 参考訳(メタデータ) (2022-12-07T09:25:54Z) - Evaluation of Transfer Learning for Polish with a Text-to-Text Model [54.81823151748415]
ポーランド語におけるテキスト・テキスト・モデルの質を評価するための新しいベンチマークを導入する。
KLEJベンチマークはテキスト・トゥ・テキスト、en-pl翻訳、要約、質問応答に適応している。
本稿では,ポーランド語のための汎用テキスト・テキスト・ツー・テキスト・モデルであるplT5について述べる。
論文 参考訳(メタデータ) (2022-05-18T09:17:14Z) - Pointer over Attention: An Improved Bangla Text Summarization Approach
Using Hybrid Pointer Generator Network [0.8049701904919516]
本稿では,事実を不適切に再現し,句の繰り返しを再現する欠点を解決するために,ハイブリッドポインタージェネレータネットワークを提案する。
我々は,単語のアウトオブボキャブラリを生成するハイブリッドポインタージェネレータネットワークを用いて,アテンションに基づくシーケンス・ツー・シーケンスを拡大する。
提案手法は従来のベンガルの抽象的な要約手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2021-11-19T15:18:12Z) - SummEval: Re-evaluating Summarization Evaluation [169.622515287256]
総合的かつ一貫した方法で14の自動評価指標を再評価する。
上記の自動評価指標を用いて,最近の要約モデル23をベンチマークした。
我々は、CNN/DailyMailニュースデータセットでトレーニングされたモデルによって生成された最大の要約コレクションを組み立てる。
論文 参考訳(メタデータ) (2020-07-24T16:25:19Z) - Students Need More Attention: BERT-based AttentionModel for Small Data
with Application to AutomaticPatient Message Triage [65.7062363323781]
BioBERT (Bidirectional Representations from Transformers for Biomedical Text Mining) に基づく新しいフレームワークを提案する。
LESA-BERTと呼ぶBERTの各層にラベル埋め込みを導入し、(ii)LESA-BERTを小さな変種に蒸留することにより、小さなデータセットで作業する際のオーバーフィッティングとモデルサイズを低減することを目指す。
アプリケーションとして,本フレームワークを用いて,患者ポータルメッセージトリアージのモデルを構築し,メッセージの緊急度を非緊急度,中度度,緊急度という3つのカテゴリに分類する。
論文 参考訳(メタデータ) (2020-06-22T03:39:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。