論文の概要: A LongFormer-Based Framework for Accurate and Efficient Medical Text Summarization
- arxiv url: http://arxiv.org/abs/2503.06888v1
- Date: Mon, 10 Mar 2025 03:33:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:49:59.023820
- Title: A LongFormer-Based Framework for Accurate and Efficient Medical Text Summarization
- Title(参考訳): 医用テキストの正確な要約のためのLongFormerベースのフレームワーク
- Authors: Dan Sun, Jacky He, Hanlu Zhang, Zhen Qi, Hongye Zheng, Xiaokai Wang,
- Abstract要約: 本稿では,LongFormerに基づく医用テキスト要約手法を提案する。
従来の要約法は短期記憶によって制限されることが多い。
LongFormerはテキスト内の長距離依存関係を効果的にキャプチャし、より重要な情報を保持する。
- 参考スコア(独自算出の注目度): 3.4635278365524673
- License:
- Abstract: This paper proposes a medical text summarization method based on LongFormer, aimed at addressing the challenges faced by existing models when processing long medical texts. Traditional summarization methods are often limited by short-term memory, leading to information loss or reduced summary quality in long texts. LongFormer, by introducing long-range self-attention, effectively captures long-range dependencies in the text, retaining more key information and improving the accuracy and information retention of summaries. Experimental results show that the LongFormer-based model outperforms traditional models, such as RNN, T5, and BERT in automatic evaluation metrics like ROUGE. It also receives high scores in expert evaluations, particularly excelling in information retention and grammatical accuracy. However, there is still room for improvement in terms of conciseness and readability. Some experts noted that the generated summaries contain redundant information, which affects conciseness. Future research will focus on further optimizing the model structure to enhance conciseness and fluency, achieving more efficient medical text summarization. As medical data continues to grow, automated summarization technology will play an increasingly important role in fields such as medical research, clinical decision support, and knowledge management.
- Abstract(参考訳): 本稿では,LongFormerをベースとした医用テキスト要約手法を提案する。
従来の要約法は短期記憶によって制限されることが多く、長文における情報損失や要約品質の低下につながる。
LongFormerは、長距離自己保持を導入することで、テキスト内の長距離依存関係を効果的にキャプチャし、より重要な情報を保持し、要約の正確性と情報保持を改善する。
実験結果から、LongFormerベースのモデルは、ROUGEのような自動評価指標において、RNN、T5、BERTといった従来のモデルよりも優れていることが示された。
また、専門家の評価でも高い評価を受けており、特に情報保持と文法的正確性に優れていた。
しかし、簡潔さと可読性に関してはまだ改善の余地がある。
一部の専門家は、生成された要約には冗長な情報が含まれており、簡潔さに影響すると指摘している。
今後の研究は、より効率的な医用テキスト要約を実現するために、簡潔さと流布性を高めるためにモデル構造をさらに最適化することに焦点を当てる。
医療データが成長を続けるにつれて、医療研究、臨床意思決定支援、知識管理といった分野において、自動要約技術がますます重要な役割を果たすようになる。
関連論文リスト
- HC-LLM: Historical-Constrained Large Language Models for Radiology Report Generation [89.3260120072177]
本稿では,放射線学レポート生成のための歴史制約付き大規模言語モデル (HC-LLM) フレームワークを提案する。
胸部X線写真から経時的特徴と経時的特徴を抽出し,疾患の進行を捉える診断報告を行った。
特に,本手法は,テスト中の履歴データなしでも良好に動作し,他のマルチモーダル大規模モデルにも容易に適用可能である。
論文 参考訳(メタデータ) (2024-12-15T06:04:16Z) - LongWanjuan: Towards Systematic Measurement for Long Text Quality [102.46517202896521]
LongWanjuanは160B以上のトークンを持つ長文タスクのための言語モデルのトレーニングを強化するために特別に設計されたデータセットである。
LongWanjuanでは、長文を全体的、集約的、カオス的なタイプに分類し、長文品質の詳細な分析を可能にする。
我々は,LongWanjuan内で異なるタイプの長文を戦略的にバランスさせるデータ混合レシピを考案し,長文タスクにおけるモデル性能を大幅に改善した。
論文 参考訳(メタデータ) (2024-02-21T07:27:18Z) - Prompting Large Language Models for Zero-Shot Clinical Prediction with
Structured Longitudinal Electronic Health Record Data [7.815738943706123]
大規模言語モデル(LLM)は、伝統的に自然言語処理に向いている。
本研究では, GPT-4 などの LLM の EHR データへの適応性について検討する。
EHRデータの長手性、スパース性、知識を注入した性質に対応するため、本研究は特定の特徴を考慮に入れている。
論文 参考訳(メタデータ) (2024-01-25T20:14:50Z) - LongBoX: Evaluating Transformers on Long-Sequence Clinical Tasks [44.89857441408805]
LongBoXは、テキストからテキストへのフォーマットで7つの医療データセットのコレクションである。
予備実験により、医療用LLMと強力な一般用LLMの両方がこのベンチマークで苦戦していることが明らかとなった。
長周期処理のための2つの手法を評価する: (i) 局所的言語的注意と (ii) フュージョン・イン・デコーダ (FiD)
論文 参考訳(メタデータ) (2023-11-16T04:57:49Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - A review on longitudinal data analysis with random forest in precision
medicine [0.0]
大規模オミクスデータは患者の特徴付けに有用であるが, 経時的に測定が変化し, 経時的データに繋がることが多い。
Random forestは、予測モデルを構築するための最先端の機械学習手法の1つである。
縦断データ解析のための標準ランダムフォレスト法の拡張について検討する。
論文 参考訳(メタデータ) (2022-08-08T13:10:47Z) - Towards more patient friendly clinical notes through language models and
ontologies [57.51898902864543]
本稿では,単語の単純化と言語モデリングに基づく医療用テキストの自動作成手法を提案する。
我々は,公開医療文のデータセットペアと,臨床医による簡易化版を用いている。
本手法は,医学フォーラムデータに基づく言語モデルを用いて,文法と本来の意味の両方を保存しながら,より単純な文を生成する。
論文 参考訳(メタデータ) (2021-12-23T16:11:19Z) - Efficient Attentions for Long Document Summarization [25.234852272297598]
Heposは、頭の位置方向のストライドを持つ、新しい効率的なエンコーダデコーダアテンションである。
十分な注意を払っている既存のモデルよりも10倍のトークンを処理できます。
論文 参考訳(メタデータ) (2021-04-05T18:45:13Z) - An Interpretable End-to-end Fine-tuning Approach for Long Clinical Text [72.62848911347466]
EHRにおける非構造化臨床テキストには、意思決定支援、トライアルマッチング、振り返り研究を含むアプリケーションにとって重要な情報が含まれている。
最近の研究は、これらのモデルが他のNLPドメインにおける最先端の性能を考慮し、BERTベースのモデルを臨床情報抽出およびテキスト分類に応用している。
本稿では,SnipBERTという新しい微調整手法を提案する。SnipBERTは全音符を使用する代わりに,重要なスニペットを識別し,階層的に切り刻まれたBERTベースのモデルに供給する。
論文 参考訳(メタデータ) (2020-11-12T17:14:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。