論文の概要: A Deep Learning Pipeline Using Synthetic Data to Improve Interpretation of Paper ECG Images
- arxiv url: http://arxiv.org/abs/2507.21968v1
- Date: Tue, 29 Jul 2025 16:16:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:56.658238
- Title: A Deep Learning Pipeline Using Synthetic Data to Improve Interpretation of Paper ECG Images
- Title(参考訳): 合成データを用いた紙心電図画像の解釈改善のためのディープラーニングパイプライン
- Authors: Xiaoyu Wang, Ramesh Nadarajah, Zhiqiang Zhang, David Wong,
- Abstract要約: 心臓血管疾患 (CVDs) は、死の世界的な主要な原因であり、早期発見は患者の予後を改善するのに不可欠である。
本稿では,紙のようなECG画像を5つの診断カテゴリに分類する深層学習フレームワークを提案する。
私たちの手法は、2024年のBritish Heart Foundation Open Data Science Challengeで優勝しました。
- 参考スコア(独自算出の注目度): 8.559073054541754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cardiovascular diseases (CVDs) are the leading global cause of death, and early detection is essential to improve patient outcomes. Electrocardiograms (ECGs), especially 12-lead ECGs, play a key role in the identification of CVDs. These are routinely interpreted by human experts, a process that is time-consuming and requires expert knowledge. Historical research in this area has focused on automatic ECG interpretation from digital signals, with recent deep learning approaches achieving strong results. In practice, however, most ECG data in clinical practice are stored or shared in image form. To bridge this gap, we propose a deep learning framework designed specifically to classify paper-like ECG images into five main diagnostic categories. Our method was the winning entry to the 2024 British Heart Foundation Open Data Science Challenge. It addresses two main challenges of paper ECG classification: visual noise (e.g., shadows or creases) and the need to detect fine-detailed waveform patterns. We propose a pre-processing pipeline that reduces visual noise and a two-stage fine-tuning strategy: the model is first fine-tuned on synthetic and external ECG image datasets to learn domain-specific features, and then further fine-tuned on the target dataset to enhance disease-specific recognition. We adopt the ConvNeXt architecture as the backbone of our model. Our method achieved AUROC scores of 0.9688 on the public validation set and 0.9677 on the private test set of the British Heart Foundation Open Data Science Challenge, highlighting its potential as a practical tool for automated ECG interpretation in clinical workflows.
- Abstract(参考訳): 心臓血管疾患 (CVDs) は、死の世界的な主要な原因であり、早期発見は患者の予後を改善するのに不可欠である。
心電図(ECG)、特に12個の心電図はCVDの同定に重要な役割を果たしている。
これらは、時間をかけて専門家の知識を必要とするプロセスである、人間の専門家によって定期的に解釈される。
この領域における歴史的研究は、デジタル信号からのECGの自動解釈に焦点を当てており、近年のディープラーニングアプローチは強力な成果を上げている。
しかし、実際には、臨床実践におけるほとんどの心電図データは、画像形式で保存または共有される。
このギャップを埋めるために,紙のようなECG画像を5つの主要な診断カテゴリに分類する深層学習フレームワークを提案する。
私たちの手法は、2024年のBritish Heart Foundation Open Data Science Challengeで優勝しました。
紙のECG分類における主な課題は、視覚ノイズ(例えば、影や裂け目)と、詳細な波形パターンを検出する必要性である。
モデルではまず、合成ECG画像データセットと外部ECG画像データセットを微調整し、ドメイン固有の特徴を学習し、さらにターゲットデータセットに微調整を行い、疾患固有の認識を強化する。
私たちはモデルのバックボーンとしてConvNeXtアーキテクチャを採用しています。
本手法は,臨床ワークフローにおける心電図自動解釈の実践的ツールとしての可能性を強調し,AUROCの公的な検証セット0.9688点,British Heart Foundation Open Data Science Challengeのプライベートテストセット0.9677点を達成した。
関連論文リスト
- Sensing Cardiac Health Across Scenarios and Devices: A Multi-Modal Foundation Model Pretrained on Heterogeneous Data from 1.7 Million Individuals [36.08910150609342]
広大で異質な健康記録から統一された表現を学習する心センシング基礎モデル(CSFM)を提案する。
我々のモデルは、複数の大規模データセットからのデータの革新的なマルチモーダル統合に基づいて事前訓練されている。
CSFMは従来のワンモーダル・ワン・タスク・アプローチより一貫して優れている。
論文 参考訳(メタデータ) (2025-06-23T20:58:12Z) - EchoWorld: Learning Motion-Aware World Models for Echocardiography Probe Guidance [79.66329903007869]
本稿では,プローブ誘導のためのモーションアウェアな世界モデリングフレームワークであるEchoWorldを紹介する。
解剖学的な知識と運動によって引き起こされる視覚力学を符号化する。
200以上の定期的なスキャンから100万枚以上の超音波画像で訓練されている。
論文 参考訳(メタデータ) (2025-04-17T16:19:05Z) - AnyECG: Foundational Models for Multitask Cardiac Analysis in Real-World Settings [34.078819572852446]
心電図(ECG)は急性心臓発作の検出に非常に敏感である。
本稿では,実世界のECGデータからロバストな表現を抽出するための基礎モデルであるAnyECGを紹介する。
論文 参考訳(メタデータ) (2024-11-17T17:32:58Z) - Learning General Representation of 12-Lead Electrocardiogram with a Joint-Embedding Predictive Architecture [0.0]
本稿では,12誘導ECG分析のための自己教師型学習モデルECG-JEPAを紹介する。
隠れた潜在空間で予測することで、ECGデータのセマンティック表現を学習する。
ECG-JEPAは、ECG分類や特徴予測を含む様々な下流タスクで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-10-11T06:30:48Z) - Self-supervised inter-intra period-aware ECG representation learning for detecting atrial fibrillation [41.82319894067087]
そこで本研究では,周期型ECG表現学習手法を提案する。
心房細動患者の心電図ではRR間隔の不規則性やP波の欠如を考慮し, 経時的および経時的表現のための特定の事前訓練タスクを開発する。
本手法は,発作/持続性心房細動検出のためのBTCHデータセット,textiti., 0.953/0.996におけるAUCの顕著な性能を示す。
論文 参考訳(メタデータ) (2024-10-08T10:03:52Z) - ECG-Image-Kit: A Synthetic Image Generation Toolbox to Facilitate Deep
Learning-Based Electrocardiogram Digitization [3.4579920352329787]
本稿では,時系列データからリアルなアーティファクトを合成したマルチリードECG画像を生成するオープンソースツールボックスであるECG-Image-Kitを紹介する。
ケーススタディでは、PhyloNet QTデータベースから、ECG-Image-Kitを使用して、21,801個のECGイメージのデータセットを作成しました。
このデータセット上で、従来のコンピュータビジョンとディープニューラルネットワークモデルを組み合わせて、合成画像を時系列データに変換するようにトレーニングしました。
論文 参考訳(メタデータ) (2023-07-04T22:42:55Z) - Automated Cardiovascular Record Retrieval by Multimodal Learning between
Electrocardiogram and Clinical Report [28.608260758775316]
本稿では,Large Language Models (LLM) と Vision-Transformer (ViT) モデルにおける最近のブレークスルーを活用し,ECGの解釈に新たなアプローチを導入する。
入力ECGデータに基づいて,最も類似した症例を自動的に同定する手法を提案する。
本研究は,未開発地域において診断サービスを提供する上で重要な資源となる可能性がある。
論文 参考訳(メタデータ) (2023-04-13T06:32:25Z) - ECG-DelNet: Delineation of Ambulatory Electrocardiograms with Mixed
Quality Labeling Using Neural Networks [69.25956542388653]
ディープラーニング(DL)アルゴリズムは、学術的、産業的にも重くなっている。
セグメンテーションフレームワークにECGの検出とデライン化を組み込むことにより、低解釈タスクにDLをうまく適用できることを実証する。
このモデルは、PhyloNetのQTデータベースを使用して、105個の増幅ECG記録から訓練された。
論文 参考訳(メタデータ) (2020-05-11T16:29:12Z) - Opportunities and Challenges of Deep Learning Methods for
Electrocardiogram Data: A Systematic Review [62.490310870300746]
心電図(Electrocardiogram、ECG)は、医学および医療において最も一般的に用いられる診断ツールの1つである。
深層学習法は心電図信号を用いた予測医療タスクにおいて有望な結果を得た。
本稿では、モデリングとアプリケーションの観点から、ECGデータに対するディープラーニング手法の体系的なレビューを行う。
論文 参考訳(メタデータ) (2019-12-28T02:44:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。