論文の概要: Leveraging Summary Guidance on Medical Report Summarization
- arxiv url: http://arxiv.org/abs/2302.04001v1
- Date: Wed, 8 Feb 2023 11:21:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-09 16:38:13.734519
- Title: Leveraging Summary Guidance on Medical Report Summarization
- Title(参考訳): 医療報告書要約の概要指導の活用
- Authors: Yunqi Zhu, Xuebing Yang, Yuanyuan Wu, Wensheng Zhang
- Abstract要約: 本研究は,D DISCHARGE, ECHO, RADIOLOGYと名付けられ,50K, 16K, 378Kのレポートと要約を含む3つの大規模医療用テキストデータセットを提案する。
我々は,提案したデータセットに対して,BERT2BERT,T5-large,BARTなど,事前学習したエンコーダ・デコーダ言語モデルを用いて,自動抽象要約の説得力のあるベースラインを実装した。
実験により,提案手法により得られたROUGEスコアとBERTScoreの改善が確認され,より大きなモデルであるT5-largeよりも優れた結果が得られた。
- 参考スコア(独自算出の注目度): 5.601559340796398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study presents three deidentified large medical text datasets, named
DISCHARGE, ECHO and RADIOLOGY, which contain 50K, 16K and 378K pairs of report
and summary that are derived from MIMIC-III, respectively. We implement
convincing baselines of automated abstractive summarization on the proposed
datasets with pre-trained encoder-decoder language models, including BERT2BERT,
T5-large and BART. Further, based on the BART model, we leverage the sampled
summaries from the train set as prior knowledge guidance, for encoding
additional contextual representations of the guidance with the encoder and
enhancing the decoding representations in the decoder. The experimental results
confirm the improvement of ROUGE scores and BERTScore made by the proposed
method, outperforming the larger model T5-large.
- Abstract(参考訳): 本研究は,MIMIC-IIIから抽出した50K,16K,378Kのレポートと要約を含む,D DISCHARGE,ECHO,RADIOLOGYの3つの大規模医療用テキストデータセットについて述べる。
我々は,提案したデータセットに対して,BERT2BERT,T5-large,BARTなど,事前学習したエンコーダ・デコーダ言語モデルを用いて,自動抽象要約の説得力のあるベースラインを実装した。
さらに,BARTモデルに基づいて,列車セットのサンプル要約を事前知識指導として利用し,エンコーダによる誘導の文脈表現の追加を符号化し,デコーダにおける復号表現の強化を図る。
実験により,提案手法により得られたROUGEスコアとBERTScoreの改善が確認され,より大きなモデルであるT5-largeよりも優れていた。
関連論文リスト
- Unsupervised Text Representation Learning via Instruction-Tuning for Zero-Shot Dense Retrieval [19.422003299376]
命令チューニングによる教師なしテキスト表現学習手法を提案する。
関連する合成クエリの表現によってコーパス表現を拡張できることを実証する。
我々は,全指標の平均ゼロショット検索性能を著しく改善した。
論文 参考訳(メタデータ) (2024-09-24T23:03:13Z) - Towards Enhancing Coherence in Extractive Summarization: Dataset and Experiments with LLMs [70.15262704746378]
我々は,5つの公開データセットと自然言語ユーザフィードバックのためのコヒーレントな要約からなる,体系的に作成された人間アノテーションデータセットを提案する。
Falcon-40BとLlama-2-13Bによる予備的な実験では、コヒーレントなサマリーを生成するという点で大幅な性能向上(10%ルージュ-L)が見られた。
論文 参考訳(メタデータ) (2024-07-05T20:25:04Z) - Extracting and Encoding: Leveraging Large Language Models and Medical Knowledge to Enhance Radiological Text Representation [31.370503681645804]
自由テキストラジオグラフィーレポートから高品質な事実文を抽出するための新しい2段階フレームワークを提案する。
我々のフレームワークには胸部X線テキスト生成システムを評価するための新しい埋め込みベースのメトリクス(CXRFE)も含まれている。
論文 参考訳(メタデータ) (2024-07-02T04:39:19Z) - A Three-Phases SFT Hybrid Model Integrated Strong Prior Module and Data Overlap Estimation in the Eduation Context [0.0]
教師付き微調整モデルとして,エンド・ツー・エンドの3相モデルを提案する。
本モデルは,学習知識の構造的分解と漸進的指導によるアウトプットを実現する。
当社のモデルは,オープンソースモデルと比較して,コード能力の最先端性も達成している。
論文 参考訳(メタデータ) (2024-03-13T05:38:39Z) - Multi-perspective Improvement of Knowledge Graph Completion with Large
Language Models [95.31941227776711]
我々は,文脈知識の不足を補うMPIKGCを提案し,大規模言語モデル(LLM)をクエリすることでKGCを改善する。
我々は4つの記述に基づくKGCモデルと4つのデータセットに基づくフレームワークの広範囲な評価を行い、リンク予測とトリプルト分類のタスクについて検討した。
論文 参考訳(メタデータ) (2024-03-04T12:16:15Z) - Deep Representation Learning for Open Vocabulary
Electroencephalography-to-Text Decoding [6.014363449216054]
神経科学に現代的な表現型学習アプローチをもたらす非侵襲的な脳記録のためのエンドツーエンドのディープラーニングフレームワークを提案する。
BLEU-1スコアは42.75%,ROUGE-1-F33.28%,BERTScore-F53.86%で,それぞれ3.38%,8.43%,6.31%であった。
論文 参考訳(メタデータ) (2023-11-15T08:03:09Z) - Text Embeddings by Weakly-Supervised Contrastive Pre-training [98.31785569325402]
E5は最先端のテキスト埋め込みのファミリーであり、幅広いタスクにうまく転送される。
E5は、テキストの単一ベクトル表現を必要とするタスクに対して、汎用的な埋め込みモデルとして簡単に使用できる。
論文 参考訳(メタデータ) (2022-12-07T09:25:54Z) - Evaluation of Transfer Learning for Polish with a Text-to-Text Model [54.81823151748415]
ポーランド語におけるテキスト・テキスト・モデルの質を評価するための新しいベンチマークを導入する。
KLEJベンチマークはテキスト・トゥ・テキスト、en-pl翻訳、要約、質問応答に適応している。
本稿では,ポーランド語のための汎用テキスト・テキスト・ツー・テキスト・モデルであるplT5について述べる。
論文 参考訳(メタデータ) (2022-05-18T09:17:14Z) - Pointer over Attention: An Improved Bangla Text Summarization Approach
Using Hybrid Pointer Generator Network [0.8049701904919516]
本稿では,事実を不適切に再現し,句の繰り返しを再現する欠点を解決するために,ハイブリッドポインタージェネレータネットワークを提案する。
我々は,単語のアウトオブボキャブラリを生成するハイブリッドポインタージェネレータネットワークを用いて,アテンションに基づくシーケンス・ツー・シーケンスを拡大する。
提案手法は従来のベンガルの抽象的な要約手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2021-11-19T15:18:12Z) - SummEval: Re-evaluating Summarization Evaluation [169.622515287256]
総合的かつ一貫した方法で14の自動評価指標を再評価する。
上記の自動評価指標を用いて,最近の要約モデル23をベンチマークした。
我々は、CNN/DailyMailニュースデータセットでトレーニングされたモデルによって生成された最大の要約コレクションを組み立てる。
論文 参考訳(メタデータ) (2020-07-24T16:25:19Z) - Students Need More Attention: BERT-based AttentionModel for Small Data
with Application to AutomaticPatient Message Triage [65.7062363323781]
BioBERT (Bidirectional Representations from Transformers for Biomedical Text Mining) に基づく新しいフレームワークを提案する。
LESA-BERTと呼ぶBERTの各層にラベル埋め込みを導入し、(ii)LESA-BERTを小さな変種に蒸留することにより、小さなデータセットで作業する際のオーバーフィッティングとモデルサイズを低減することを目指す。
アプリケーションとして,本フレームワークを用いて,患者ポータルメッセージトリアージのモデルを構築し,メッセージの緊急度を非緊急度,中度度,緊急度という3つのカテゴリに分類する。
論文 参考訳(メタデータ) (2020-06-22T03:39:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。