論文の概要: Comparative Analysis of LoRA-Adapted Embedding Models for Clinical Cardiology Text Representation
- arxiv url: http://arxiv.org/abs/2511.19739v1
- Date: Mon, 24 Nov 2025 21:57:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.180729
- Title: Comparative Analysis of LoRA-Adapted Embedding Models for Clinical Cardiology Text Representation
- Title(参考訳): 臨床心臓医学テキスト表現のためのLoRA適応埋め込みモデルの比較解析
- Authors: Richard J. Young, Alice M. Matthews,
- Abstract要約: ドメイン固有のテキスト埋め込みは、臨床自然言語処理に不可欠である。
本研究では,低ランク適応を用いた10種類の変圧器型埋め込みモデルについて検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Domain-specific text embeddings are critical for clinical natural language processing, yet systematic comparisons across model architectures remain limited. This study evaluates ten transformer-based embedding models adapted for cardiology through Low-Rank Adaptation (LoRA) fine-tuning on 106,535 cardiology text pairs derived from authoritative medical textbooks. Results demonstrate that encoder-only architectures, particularly BioLinkBERT, achieve superior domain-specific performance (separation score: 0.510) compared to larger decoder-based models, while requiring significantly fewer computational resources. The findings challenge the assumption that larger language models necessarily produce better domain-specific embeddings and provide practical guidance for clinical NLP system development. All models, training code, and evaluation datasets are publicly available to support reproducible research in medical informatics.
- Abstract(参考訳): ドメイン固有のテキスト埋め込みは、臨床自然言語処理には不可欠であるが、モデルアーキテクチャ間での体系的な比較は限定的である。
本研究は、権威ある医学教科書から抽出した106,535個の心電図テキスト対上で、ローランド適応(LoRA)ファインチューニングにより、心電図に適合した10個のトランスフォーマーベースの埋め込みモデルを評価する。
その結果、エンコーダのみのアーキテクチャ、特にBioLinkBERTは、より大きなデコーダベースのモデルに比べてドメイン固有の性能(セパレーションスコア:0.510)が優れており、計算資源は大幅に少ないことがわかった。
この結果は,より大きな言語モデルが必ずしもドメイン固有の埋め込みをより良いものにし,臨床NLPシステム開発のための実践的なガイダンスを提供するという仮定に挑戦するものである。
すべてのモデル、トレーニングコード、評価データセットは、医療情報学における再現可能な研究をサポートするために公開されている。
関連論文リスト
- Challenges in Deep Learning-Based Small Organ Segmentation: A Benchmarking Perspective for Medical Research with Limited Datasets [1.2648105980808475]
本研究では,最先端のディープラーニングセグメンテーションモデルの体系的評価について検討する。
その結果, モデル性能はデータ分割に非常に敏感であり, 統計的ノイズによる差は, 真のアルゴリズム上の優越性よりも小さいことがわかった。
論文 参考訳(メタデータ) (2025-09-07T01:54:20Z) - Lessons Learned on Information Retrieval in Electronic Health Records: A Comparison of Embedding Models and Pooling Strategies [8.822087602255504]
大きな言語モデルを臨床領域に適用することは、医療記録を処理するという文脈重大な性質のために困難である。
本稿では, 組込みモデルとプール法の違いが臨床領域の情報検索に与える影響について検討する。
論文 参考訳(メタデータ) (2024-09-23T16:16:08Z) - Rethinking model prototyping through the MedMNIST+ dataset collection [0.11999555634662634]
この作業では、MedMNIST+データセットコレクションの包括的なベンチマークを導入する。
我々は、一般的なCNN(Convolutional Neural Networks)とViT(Vision Transformer)アーキテクチャを、異なる医療データセットにわたって再評価する。
この結果から,計算効率のよいトレーニングスキームと最新の基礎モデルが,エンドツーエンドのトレーニングに有効な代替手段を提供する可能性が示唆された。
論文 参考訳(メタデータ) (2024-04-24T10:19:25Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - An Iterative Optimizing Framework for Radiology Report Summarization with ChatGPT [80.33783969507458]
放射線医学報告の「印象」セクションは、放射線医と他の医師とのコミュニケーションにとって重要な基盤である。
近年の研究では、大規模医療用テキストデータを用いた印象自動生成の有望な成果が得られている。
これらのモデルは、しばしば大量の医療用テキストデータを必要とし、一般化性能が劣る。
論文 参考訳(メタデータ) (2023-04-17T17:13:42Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - Predicting Clinical Diagnosis from Patients Electronic Health Records
Using BERT-based Neural Networks [62.9447303059342]
医療コミュニティにおけるこの問題の重要性を示す。
本稿では,変換器 (BERT) モデルによる2方向表現の分類順序の変更について述べる。
約400万人のユニークな患者訪問からなる、大規模なロシアのEHRデータセットを使用します。
論文 参考訳(メタデータ) (2020-07-15T09:22:55Z) - The Utility of General Domain Transfer Learning for Medical Language
Tasks [1.5459429010135775]
本研究の目的は,医療自然言語処理(NLP)タスクに適用したトランスファーラーニング手法とトランスフォーマーベースモデルの有効性を解析することである。
一般的なテキスト転送学習は、放射線コーパス上の医学的NLPタスクにおいて、最先端の結果を生成するための有効な技術である可能性がある。
論文 参考訳(メタデータ) (2020-02-16T20:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。