論文の概要: Convolutional Fourier Analysis Network (CFAN): A Unified Time-Frequency Approach for ECG Classification
- arxiv url: http://arxiv.org/abs/2502.00497v1
- Date: Sat, 01 Feb 2025 17:30:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:53:44.977865
- Title: Convolutional Fourier Analysis Network (CFAN): A Unified Time-Frequency Approach for ECG Classification
- Title(参考訳): 畳み込みフーリエ解析ネットワーク(CFAN):ECG分類のための統一時間周波数アプローチ
- Authors: Sam Jeong, Hae Yong Kim,
- Abstract要約: 機械学習は心電図(ECG)などの生体医学的信号の分類に変化をもたらした
我々は,(1)不整脈検出,(2)身元認識,(3)無呼吸検出の3つのECG分類タスクを評価した。
我々は、FANとCNNを統合した畳み込みフーリエ解析ネットワーク(CFAN)を開発した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Machine learning has transformed the classification of biomedical signals such as electrocardiograms (ECGs). Advances in deep learning, particularly convolutional neural networks (CNNs), enable automatic feature extraction, raising the question: Can combining time- and frequency-domain attributes enhance classification accuracy? To explore this, we evaluated three ECG classification tasks: (1) arrhythmia detection, (2) identity recognition, and (3) apnea detection. We initially tested three methods: (i) 2-D spectrogram-based frequency-time classification (SPECT), (ii) time-domain classification using a 1-D CNN (CNN1D), and (iii) frequency-domain classification using a Fourier transform-based CNN (FFT1D). Performance was validated using K-fold cross-validation. Among these, CNN1D (time only) performed best, followed by SPECT (time-frequency) and FFT1D (frequency only). Surprisingly, SPECT, which integrates time- and frequency-domain features, performed worse than CNN1D, suggesting a need for a more effective time and frequency fusion approach. To address this, we tested the recently proposed Fourier Analysis Network (FAN), which combines time- and frequency-domain features. However, FAN performed comparably to CNN1D, excelling in some tasks while underperforming in others. To enhance this approach, we developed the Convolutional Fourier Analysis Network (CFAN), which integrates FAN with CNN. CFAN outperformed all previous methods across all classification tasks. These findings underscore the advantages of combining time- and frequency-domain features, demonstrating CFAN's potential as a powerful and versatile solution for ECG classification and broader biomedical signal analysis
- Abstract(参考訳): 機械学習は心電図(ECG)などの生体医学信号の分類に変化をもたらした。
ディープラーニング、特に畳み込みニューラルネットワーク(CNN)の進歩により、自動的な特徴抽出が可能になった。
そこで我々は,(1)不整脈検出,(2)身元認識,(3)無呼吸検出の3つのECG分類タスクについて検討した。
最初は3つの方法を試しました。
(i)2次元スペクトログラムに基づく周波数時間分類(SPECT)
(II)1次元CNN(CNN1D)と時間領域分類
3)フーリエ変換CNN(FFT1D)を用いた周波数領域分類
K-foldクロスバリデーションを用いて性能を検証した。
これらのうち、CNN1D (time only) が最も良く、その後 SPECT (time- frequency) と FFT1D ( frequency only) が続いた。
意外なことに、時間領域と周波数領域の機能を統合したSPECTは、CNN1Dよりもパフォーマンスが悪く、より効率的な時間と周波数融合アプローチの必要性が示唆されている。
これを解決するために、時間領域と周波数領域の機能を組み合わせた最近提案されたフーリエ解析ネットワーク(FAN)をテストした。
しかし、FANはCNN1Dと互換性があり、いくつかのタスクでは優れ、他のタスクでは性能が劣る。
このアプローチを強化するために,FANとCNNを統合した畳み込みフーリエ解析ネットワーク(CFAN)を開発した。
CFANはすべての分類タスクで過去のメソッドよりも優れていた。
これらの知見は、ECG分類とより広範な生体信号解析のための強力で汎用的なソリューションとしてのCFANの可能性を示す、時間領域と周波数領域の機能の組み合わせの利点を浮き彫りにしている。
関連論文リスト
- Classification of Heart Sounds Using Multi-Branch Deep Convolutional Network and LSTM-CNN [2.7699831151653305]
本稿では,診療所における低コストシステムを用いた心疾患の迅速かつ効率的な診断方法を提案する。
LSCNネットワークによる心臓音の総合的分類精度は96%以上である。
論文 参考訳(メタデータ) (2024-07-15T13:02:54Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Spectral Cross-Domain Neural Network with Soft-adaptive Threshold
Spectral Enhancement [12.837935554250409]
スペクトルクロスドメインニューラルネットワーク(SCDNN)という新しいディープラーニングモデルを提案する。
同時に、ニューラルネットワーク内のスペクトル領域と時間領域に埋め込まれたキー情報を明らかにする。
提案するSCDNNは、パブリックECGデータベースの textitPTB-XL と textitMIT-BIH に実装されたいくつかの分類タスクでテストされる。
論文 参考訳(メタデータ) (2023-01-10T14:23:43Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Time-Frequency Analysis based Deep Interference Classification for
Frequency Hopping System [2.8123846032806035]
干渉分類は、認証された通信システムを保護する上で重要な役割を果たす。
本稿では,周波数ホッピング通信システムにおける干渉分類問題について述べる。
周波数ホッピング系における多重干渉の可能性を考慮すると、線形および双線形変換に基づく複合時間周波数解析法が採用されている。
論文 参考訳(メタデータ) (2021-07-21T14:22:40Z) - Time and Frequency Network for Human Action Detection in Videos [6.78349879472022]
TFNetという,時刻と周波数を同時に考慮したエンドツーエンドネットワークを提案する。
動作パターンを得るには、これら2つの特徴を注目機構の下で深く融合させる。
論文 参考訳(メタデータ) (2021-03-08T11:42:05Z) - Frequency Gating: Improved Convolutional Neural Networks for Speech
Enhancement in the Time-Frequency Domain [37.722450363816144]
本稿では、CNNのカーネルの乗算重みを計算するために、周波数ゲーティングと呼ばれる手法を提案する。
スキップ接続を用いたオートエンコーダニューラルネットワークの実験では、局所的および周波数的にゲーティングの両方がベースラインを上回っている。
拡張短時間客観的インテリジェンススコア(ESTOI)に基づく損失関数を導入し、標準平均二乗誤差(MSE)損失関数より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-08T22:04:00Z) - A Two-Stage Approach to Device-Robust Acoustic Scene Classification [63.98724740606457]
デバイスロバスト性を改善するために,完全畳み込みニューラルネットワーク(CNN)に基づく2段階システムを提案する。
以上の結果から,提案したASCシステムにより,開発環境における最先端の精度が得られた。
クラスアクティベーションマッピングを用いたニューラルサリエンシ解析により、モデルによって学習されたパターンに関する新たな洞察が得られる。
論文 参考訳(メタデータ) (2020-11-03T03:27:18Z) - A Computationally Efficient Multiclass Time-Frequency Common Spatial
Pattern Analysis on EEG Motor Imagery [164.93739293097605]
共通空間パターン(CSP)は脳波(EEG)運動画像(MI)の一般的な特徴抽出法である
本研究では,従来のCSPアルゴリズムを改良し,マルチクラスMI分類精度を改善し,計算処理の効率化を図る。
論文 参考訳(メタデータ) (2020-08-25T18:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。