論文の概要: Bridging Performance Gaps for Foundation Models: A Post-Training Strategy for ECGFounder
- arxiv url: http://arxiv.org/abs/2509.12991v1
- Date: Tue, 16 Sep 2025 12:02:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.067668
- Title: Bridging Performance Gaps for Foundation Models: A Post-Training Strategy for ECGFounder
- Title(参考訳): ファンデーションモデルのブリッジングパフォーマンスギャップ:ECGFounderのポストトレーニング戦略
- Authors: Ya Zhou, Yujie Yang, Xiaohan Fan, Wei Zhao,
- Abstract要約: 本稿では,ECGファンデーションモデルを強化するための簡易かつ効果的なポストトレーニング手法を提案する。
提案手法は,マクロAUROCでは1.2%-3.3%,マクロAUPRCでは5.3%-20.9%,ベースライン微調整戦略を改良する。
本手法は, ベースラインに比べて安定かつ試料効率が良く, マクロAUROCは9.1%, マクロAUPRCは34.9%向上した。
- 参考スコア(独自算出の注目度): 10.73513972322003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ECG foundation models are increasingly popular due to their adaptability across various tasks. However, their clinical applicability is often limited by performance gaps compared to task-specific models, even after pre-training on large ECG datasets and fine-tuning on target data. This limitation is likely due to the lack of an effective post-training strategy. In this paper, we propose a simple yet effective post-training approach to enhance ECGFounder, a state-of-the-art ECG foundation model pre-trained on over 7 million ECG recordings. Experiments on the PTB-XL benchmark show that our approach improves the baseline fine-tuning strategy by 1.2%-3.3% in macro AUROC and 5.3%-20.9% in macro AUPRC. Additionally, our method outperforms several recent state-of-the-art approaches, including task-specific and advanced architectures. Further evaluation reveals that our method is more stable and sample-efficient compared to the baseline, achieving a 9.1% improvement in macro AUROC and a 34.9% improvement in macro AUPRC using just 10% of the training data. Ablation studies identify key components, such as stochastic depth and preview linear probing, that contribute to the enhanced performance. These findings underscore the potential of post-training strategies to improve ECG foundation models, and we hope this work will contribute to the continued development of foundation models in the ECG domain.
- Abstract(参考訳): ECGファウンデーションモデルは、様々なタスクにまたがる適応性のために、ますます人気が高まっている。
しかし、その臨床応用性は、大きなECGデータセットで事前トレーニングし、ターゲットデータで微調整した後であっても、タスク固有のモデルと比較してパフォーマンスのギャップによって制限されることが多い。
この制限は、効果的なポストトレーニング戦略が欠如しているためだろう。
本稿では,700万以上のECG記録を事前学習した最新のECG基盤モデルであるECGFounderを強化するための,簡易かつ効果的なポストトレーニング手法を提案する。
PTB-XLベンチマーク実験の結果,マクロAUROCは1.2%-3.3%,マクロAUPRCは5.3%-20.9%,ベースライン微調整戦略は改善した。
さらに,タスク固有のアーキテクチャや高度なアーキテクチャなど,最近の最先端の手法よりも優れています。
さらに,本手法はベースラインに比べて安定かつ試料効率が良く,マクロAUROCは9.1%,マクロAUPRCは34.9%向上した。
アブレーション研究は、確率深度やプレビュー線形探索などの重要な要素を同定し、性能の向上に寄与する。
これらの知見は,ECGファンデーションモデルを改善するためのポストトレーニング戦略の可能性を明らかにするとともに,ECGドメインにおけるファンデーションモデルの発展に寄与することを期待している。
関連論文リスト
- OpenECG: Benchmarking ECG Foundation Models with Public 1.2 Million Records [2.3942438969883906]
この調査では、9つのセンターから120万回のECG記録の大規模ベンチマークであるOpenECGを紹介し、パブリックデータセットでトレーニングされたECG基盤モデル(ECG-FM)を評価する。
本研究では,ResNet-50およびVision Transformerアーキテクチャを用いた3つの自己教師型学習手法(SimCLR, BYOL, MAE)について検討し,モデル一般化の評価を行った。
その結果,多種多様なデータセットの事前学習が一般化を著しく改善し,BYOLとMAEはSimCLRを上回り,コントラストに対する特徴一貫性と生成学習の有効性を強調した。
論文 参考訳(メタデータ) (2025-03-02T03:26:14Z) - Fusion of ECG Foundation Model Embeddings to Improve Early Detection of Acute Coronary Syndromes [5.723893680574976]
本研究では,心電図基礎モデル,特にST-MEMとECG-FMを用いて心電図リスク評価を行う。
我々はこれらのモデルの性能を個別に評価し、融合アプローチによりそれらの埋め込みを組み合わせ、予測の精度を高める。
論文 参考訳(メタデータ) (2025-02-17T04:50:56Z) - Efficient Continual Pre-training by Mitigating the Stability Gap [68.49269649759005]
本研究では,Large Language Models (LLM) の継続事前学習における挙動について検討する。
固定された計算予算内でのLLM性能を向上させるための3つの効果的な戦略を提案する。
当社の戦略は,OpenLlama-3Bモデルの平均医療タスク性能を36.2%から40.7%に改善し,当初のトレーニング予算の40%に過ぎなかった。
論文 参考訳(メタデータ) (2024-06-21T02:28:37Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - CORE-BEHRT: A Carefully Optimized and Rigorously Evaluated BEHRT [1.825224193230824]
BERTベースのモデルはBEHRTとMed-BERTのリリース以降、人気が高まっている。
BERTに基づくEHRモデリングについて検討し、重要な設計選択のための改善の源泉を分離する。
論文 参考訳(メタデータ) (2024-04-23T16:35:59Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - ECG-DelNet: Delineation of Ambulatory Electrocardiograms with Mixed
Quality Labeling Using Neural Networks [69.25956542388653]
ディープラーニング(DL)アルゴリズムは、学術的、産業的にも重くなっている。
セグメンテーションフレームワークにECGの検出とデライン化を組み込むことにより、低解釈タスクにDLをうまく適用できることを実証する。
このモデルは、PhyloNetのQTデータベースを使用して、105個の増幅ECG記録から訓練された。
論文 参考訳(メタデータ) (2020-05-11T16:29:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。