論文の概要: Deep Learning for Medical Text Processing: BERT Model Fine-Tuning and Comparative Study
- arxiv url: http://arxiv.org/abs/2410.20792v1
- Date: Mon, 28 Oct 2024 07:17:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:17:30.209163
- Title: Deep Learning for Medical Text Processing: BERT Model Fine-Tuning and Comparative Study
- Title(参考訳): 医用テキスト処理のための深層学習:BERTモデルファインチューニングと比較研究
- Authors: Jiacheng Hu, Yiru Cang, Guiran Liu, Meiqi Wang, Weijie He, Runyuan Bao,
- Abstract要約: 本稿では,現在の医療情報の爆発に伴う課題に対処するため,BERTモデルに基づく医療文献要約生成手法を提案する。
我々は,医療文献から重要な情報を素早く抽出し,一貫性のある正確な要約を生成する効率的な要約生成システムを開発した。
- 参考スコア(独自算出の注目度): 4.416456130207115
- License:
- Abstract: This paper proposes a medical literature summary generation method based on the BERT model to address the challenges brought by the current explosion of medical information. By fine-tuning and optimizing the BERT model, we develop an efficient summary generation system that can quickly extract key information from medical literature and generate coherent, accurate summaries. In the experiment, we compared various models, including Seq-Seq, Attention, Transformer, and BERT, and demonstrated that the improved BERT model offers significant advantages in the Rouge and Recall metrics. Furthermore, the results of this study highlight the potential of knowledge distillation techniques to further enhance model performance. The system has demonstrated strong versatility and efficiency in practical applications, offering a reliable tool for the rapid screening and analysis of medical literature.
- Abstract(参考訳): 本稿では,現在の医療情報の爆発に伴う課題に対処するため,BERTモデルに基づく医療文献要約生成手法を提案する。
BERTモデルを微調整し最適化することにより、医療文献から重要な情報を素早く抽出し、一貫性のある正確な要約を生成する効率的な要約生成システムを開発する。
実験では、Seq-Seq、Attention、Transformer、BERTなどさまざまなモデルを比較し、改良されたBERTモデルがRurgeとRecallのメトリクスに大きな利点をもたらすことを示した。
さらに, 本研究は, モデル性能を高めるための知識蒸留技術の可能性を強調した。
このシステムは、医療文献の迅速スクリーニングと分析のための信頼性の高いツールとして、実用用途において強力な汎用性と効率性を示してきた。
関連論文リスト
- NeuroSym-BioCAT: Leveraging Neuro-Symbolic Methods for Biomedical Scholarly Document Categorization and Question Answering [0.14999444543328289]
本稿では,最適化されたトピックモデリングフレームワークであるOVB-LDAとBI-POP CMA-ES最適化技術を統合し,学術文書の抽象分類を強化した新しい手法を提案する。
我々は、ドメイン固有データに基づいて微調整された蒸留MiniLMモデルを用いて、高精度な回答抽出を行う。
論文 参考訳(メタデータ) (2024-10-29T14:45:12Z) - Improving Extraction of Clinical Event Contextual Properties from Electronic Health Records: A Comparative Study [2.0884301753594334]
本研究は,医学テキスト分類のための様々な自然言語モデルの比較分析を行う。
BERTはBi-LSTMモデルを最大28%、ベースラインのBERTモデルを最大16%上回り、マイノリティクラスをリコールする。
論文 参考訳(メタデータ) (2024-08-30T10:28:49Z) - Improving Biomedical Entity Linking with Retrieval-enhanced Learning [53.24726622142558]
$k$NN-BioELは、トレーニングコーパス全体から同様のインスタンスを予測のヒントとして参照する機能を備えたBioELモデルを提供する。
k$NN-BioELは、いくつかのデータセットで最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2023-12-15T14:04:23Z) - PathLDM: Text conditioned Latent Diffusion Model for Histopathology [62.970593674481414]
そこで我々は,高品質な病理像を生成するためのテキスト条件付き遅延拡散モデルPathLDMを紹介した。
提案手法は画像とテキストデータを融合して生成プロセスを強化する。
我々は,TCGA-BRCAデータセット上でのテキスト・ツー・イメージ生成において,SoTA FIDスコア7.64を達成し,FID30.1と最も近いテキスト・コンディショナブル・コンペティタを著しく上回った。
論文 参考訳(メタデータ) (2023-09-01T22:08:32Z) - KG-MTT-BERT: Knowledge Graph Enhanced BERT for Multi-Type Medical Text
Classification [18.99614997293521]
KG-MTT-BERT (Knowledge Graph Enhanced Multi-Type Text BERT) は医療用テキストの複雑さに対処するために開発された。
我々のモデルは、診断関連グループ(DRG)分類において、すべてのベースラインやその他の最先端モデルより優れている。
論文 参考訳(メタデータ) (2022-10-08T08:37:44Z) - SSD-KD: A Self-supervised Diverse Knowledge Distillation Method for
Lightweight Skin Lesion Classification Using Dermoscopic Images [62.60956024215873]
皮膚がんは最も一般的な悪性腫瘍の1つであり、人口に影響を与え、世界中で経済的な重荷を負っている。
皮膚がん検出のほとんどの研究は、ポータブルデバイス上での計算資源の制限を考慮せずに、高い予測精度を追求している。
本研究は,皮膚疾患分類のための汎用的なKDフレームワークに多様な知識を統一する,SSD-KDと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-22T06:54:29Z) - BERT WEAVER: Using WEight AVERaging to enable lifelong learning for
transformer-based models in biomedical semantic search engines [49.75878234192369]
We present WEAVER, a simple, yet efficient post-processing method that infuse old knowledge into the new model。
WEAVERを逐次的に適用すると、同じ単語の埋め込み分布が、一度にすべてのデータに対する総合的なトレーニングとして得られることを示す。
論文 参考訳(メタデータ) (2022-02-21T10:34:41Z) - Fine-Tuning Large Neural Language Models for Biomedical Natural Language
Processing [55.52858954615655]
バイオメディカルNLPの微調整安定性に関する系統的研究を行った。
我々は、特に低リソース領域において、微調整性能は事前トレーニング設定に敏感であることを示した。
これらの技術は低リソースバイオメディカルNLPアプリケーションの微調整性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-12-15T04:20:35Z) - Investigation of BERT Model on Biomedical Relation Extraction Based on
Revised Fine-tuning Mechanism [2.8881198461098894]
BERTモデルの微調整過程における層全体の利用法について検討する。
さらに解析により,BERTモデルの最後の層から関係性に関する重要な知識を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-11-01T01:47:16Z) - Predicting Clinical Diagnosis from Patients Electronic Health Records
Using BERT-based Neural Networks [62.9447303059342]
医療コミュニティにおけるこの問題の重要性を示す。
本稿では,変換器 (BERT) モデルによる2方向表現の分類順序の変更について述べる。
約400万人のユニークな患者訪問からなる、大規模なロシアのEHRデータセットを使用します。
論文 参考訳(メタデータ) (2020-07-15T09:22:55Z) - Literature Triage on Genomic Variation Publications by
Knowledge-enhanced Multi-channel CNN [5.187865216685969]
本研究の目的は,ゲノム変異と特定の疾患や表現型との関連性を検討することである。
我々は多チャンネル畳み込みネットワークを採用し、リッチテキスト情報を活用し、異なるコーパスからのセマンティックギャップをブリッジする。
本モデルは,バイオメディカル文献トリアージ結果の精度を向上させる。
論文 参考訳(メタデータ) (2020-05-08T13:47:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。