論文の概要: Explainable Deep Neural Network for Multimodal ECG Signals: Intermediate vs Late Fusion
- arxiv url: http://arxiv.org/abs/2508.11666v1
- Date: Wed, 06 Aug 2025 16:26:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-24 10:27:26.489336
- Title: Explainable Deep Neural Network for Multimodal ECG Signals: Intermediate vs Late Fusion
- Title(参考訳): マルチモーダルECG信号のための説明可能なディープニューラルネットワーク:中間対後期核融合
- Authors: Timothy Oladunni, Ehimen Aneni,
- Abstract要約: マルチモーダルディープニューラルネットワーク(MDNN)は、多様なデータドメインを統合する能力を持ち、堅牢で正確な予測のための有望なソリューションを提供する。
本研究は、ECG信号を用いた中間核融合戦略と後期核融合戦略の比較効果について検討する。
- 参考スコア(独自算出の注目度): 1.9336815376402723
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The limitations of unimodal deep learning models, particularly their tendency to overfit and limited generalizability, have renewed interest in multimodal fusion strategies. Multimodal deep neural networks (MDNN) have the capability of integrating diverse data domains and offer a promising solution for robust and accurate predictions. However, the optimal fusion strategy, intermediate fusion (feature-level) versus late fusion (decision-level) remains insufficiently examined, especially in high-stakes clinical contexts such as ECG-based cardiovascular disease (CVD) classification. This study investigates the comparative effectiveness of intermediate and late fusion strategies using ECG signals across three domains: time, frequency, and time-frequency. A series of experiments were conducted to identify the highest-performing fusion architecture. Results demonstrate that intermediate fusion consistently outperformed late fusion, achieving a peak accuracy of 97 percent, with Cohen's d > 0.8 relative to standalone models and d = 0.40 compared to late fusion. Interpretability analyses using saliency maps reveal that both models align with the discretized ECG signals. Statistical dependency between the discretized ECG signals and corresponding saliency maps for each class was confirmed using Mutual Information (MI). The proposed ECG domain-based multimodal model offers superior predictive capability and enhanced explainability, crucial attributes in medical AI applications, surpassing state-of-the-art models.
- Abstract(参考訳): 一助深層学習モデルの限界、特に過度に適合する傾向と限定的な一般化性は、マルチモーダル融合戦略に新たな関心を寄せている。
マルチモーダルディープニューラルネットワーク(MDNN)は、多様なデータドメインを統合する能力を持ち、堅牢で正確な予測のための有望なソリューションを提供する。
しかし, 心電図に基づく心血管疾患(CVD)の分類などの高い臨床状況において, 最適核融合戦略, 中間核融合(機能レベル)と後期核融合(決定レベル)は十分に検討されていない。
本研究では, 時間, 周波数, 時間周波数の3領域にわたるECG信号を用いた中間核融合戦略と後期核融合戦略の比較効果について検討した。
高い性能の核融合アーキテクチャを同定するための一連の実験が実施された。
その結果、中間核融合は後期核融合より一貫して優れており、ピーク精度は97%、コーエンのd > 0.8はスタンドアロンモデルに対して、d = 0.40は後期核融合よりも優れていた。
サリエンシマップを用いた解釈可能性解析により、両モデルが離散化されたECG信号と一致していることが判明した。
相互情報 (MI) を用いて, 離散化された心電図信号と各クラスに対する対応する相性マップとの統計的依存性を確認した。
提案したECGドメインベースのマルチモーダルモデルは、予測能力と説明可能性の向上、医療AIアプリケーションにおける重要な属性、最先端のモデルを上回る機能を提供する。
関連論文リスト
- Uncertainty-aware Cross-training for Semi-supervised Medical Image Segmentation [45.96892342675963]
半教師型医療画像(UC-Seg)のための不確実性を考慮したクロストレーニングフレームワークを提案する。
本手法は,他の最先端半教師付き手法と比較して,セグメンテーション精度と一般化性能に優れる。
論文 参考訳(メタデータ) (2025-08-12T15:28:10Z) - impuTMAE: Multi-modal Transformer with Masked Pre-training for Missing Modalities Imputation in Cancer Survival Prediction [75.43342771863837]
我々は,効率的なマルチモーダル事前学習戦略を備えた新しいトランスフォーマーに基づくエンドツーエンドアプローチである impuTMAE を紹介する。
マスクされたパッチを再構築することで、モダリティの欠如を同時に示唆しながら、モダリティ間の相互作用とモダリティ内相互作用を学習する。
本モデルは,TGA-GBM/LGGとBraTSデータセットを用いたグリオーマ生存予測のために,異種不完全データに基づいて事前訓練を行った。
論文 参考訳(メタデータ) (2025-08-08T10:01:16Z) - Rethinking Multimodality: Optimizing Multimodal Deep Learning for Biomedical Signal Classification [5.811275732167591]
本研究では,生体信号分類における多モード深層学習の新たな視点を提案する。
相補的特徴領域がモデルの性能に与える影響を系統的に分析する。
最適領域融合は、モダリティの数ではなく、それらの固有の相補性の質であることを示す。
論文 参考訳(メタデータ) (2025-08-01T14:12:10Z) - Latent Space Data Fusion Outperforms Early Fusion in Multimodal Mental Health Digital Phenotyping Data [0.0]
うつ病や不安などの精神疾患は早期発見とパーソナライズされた介入の方法を改善する必要がある。
従来の予測モデルは、精神医学的なデータの複雑なマルチモーダルな性質を捉えるのに失敗する、単調なデータや初期の融合戦略に依存していることが多い。
日常的なうつ症状の予測のための中間的(相対的空間)核融合の評価を行った。
論文 参考訳(メタデータ) (2025-07-10T18:10:46Z) - Multimodal Outer Arithmetic Block Dual Fusion of Whole Slide Images and Omics Data for Precision Oncology [6.418265127069878]
本稿では, 局所(パッチレベル)から大域(スライダーレベル)の相互作用の相補的な情報を取得するために, 早期・後期融合におけるオミック埋め込みの利用を提案する。
この二重融合戦略は、解釈可能性と分類性能を高め、臨床診断の可能性を強調している。
論文 参考訳(メタデータ) (2024-11-26T13:25:53Z) - A Two-Stage Generative Model with CycleGAN and Joint Diffusion for
MRI-based Brain Tumor Detection [41.454028276986946]
本稿では,脳腫瘍の検出とセグメンテーションを改善するための2段階生成モデル(TSGM)を提案する。
CycleGANは、未ペアデータに基づいてトレーニングされ、データとして正常な画像から異常な画像を生成する。
VE-JPは、合成対の異常画像をガイドとして使用して、健康な画像の再構成を行う。
論文 参考訳(メタデータ) (2023-11-06T12:58:26Z) - Brain Imaging-to-Graph Generation using Adversarial Hierarchical Diffusion Models for MCI Causality Analysis [44.45598796591008]
機能的磁気共鳴画像(fMRI)を軽度認知障害解析のための効果的な接続性にマッピングするために,脳画像から画像へのBIGG(Brain Imaging-to-graph generation)フレームワークを提案する。
発電機の階層変換器は、複数のスケールでノイズを推定するように設計されている。
ADNIデータセットの評価は,提案モデルの有効性と有効性を示す。
論文 参考訳(メタデータ) (2023-05-18T06:54:56Z) - Multiple Time Series Fusion Based on LSTM An Application to CAP A Phase
Classification Using EEG [56.155331323304]
本研究では,深層学習に基づく脳波チャンネルの特徴レベル融合を行う。
チャネル選択,融合,分類手順を2つの最適化アルゴリズムで最適化した。
論文 参考訳(メタデータ) (2021-12-18T14:17:49Z) - ECG Heartbeat Classification Using Multimodal Fusion [13.524306011331303]
本稿では,心電図の心拍数分類のための2つの計算効率の良いマルチモーダル融合フレームワークを提案する。
MFFでは,CNNの垂直層から特徴を抽出し,それらを融合させてユニークかつ相互依存的な情報を得た。
不整脈では99.7%,MIでは99.2%の分類が得られた。
論文 参考訳(メタデータ) (2021-07-21T03:48:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。