論文の概要: Learning ECG Representations based on Manipulated Temporal-Spatial
Reverse Detection
- arxiv url: http://arxiv.org/abs/2202.12458v1
- Date: Fri, 25 Feb 2022 02:01:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-28 16:10:28.819532
- Title: Learning ECG Representations based on Manipulated Temporal-Spatial
Reverse Detection
- Title(参考訳): 時間空間逆検出に基づく心電図表現の学習
- Authors: Wenrui Zhang, Shijia Geng, Shenda Hong
- Abstract要約: 本稿では,ECG表現を学習する上で,単純だが効果的な手法を提案する。
ECGの時間的特性と空間的特性にインスパイアされ、元の信号を水平に、垂直に、そして水平に、そして垂直に、それぞれ反転させる。
その結果,本手法で学習したECG表現は,下流タスクにおいて顕著な性能を示すことがわかった。
- 参考スコア(独自算出の注目度): 11.615287369669971
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning representations from electrocardiogram (ECG) serves as a fundamental
step for many downstream machine learning-based ECG analysis tasks. However,
the learning process is always restricted by lack of high-quality labeled data
in reality. Existing methods addressing data deficiency either cannot provide
satisfied representations for downstream tasks or require too much effort to
construct similar and dissimilar pairs to learn informative representations. In
this paper, we propose a straightforward but effective approach to learn ECG
representations. Inspired by the temporal and spatial characteristics of ECG,
we flip the original signals horizontally, vertically, and both horizontally
and vertically. The learning is then done by classifying the four types of
signals including the original one. To verify the effectiveness of the proposed
temporal-spatial (T-S) reverse detection method, we conduct a downstream task
to detect atrial fibrillation (AF) which is one of the most common ECG tasks.
The results show that the ECG representations learned with our method lead to
remarkable performances on the downstream task. In addition, after exploring
the representational feature space and investigating which parts of the ECG
signal contribute to the representations, we conclude that the temporal reverse
is more effective than the spatial reverse for learning ECG representations.
- Abstract(参考訳): 心電図(ECG)からの学習表現は、多くの下流機械学習ベースのECG分析タスクの基本的なステップとなる。
しかし、学習プロセスは常に高品質なラベル付きデータの欠如によって制限される。
データ不足に対処する既存の手法は、下流のタスクに対して満足のいく表現を提供できないか、情報表現を学ぶために類似した異なるペアを構築するのに多くの努力を必要とする。
本稿では,ecg表現を学ぶための単純かつ効果的なアプローチを提案する。
ECGの時間的・空間的特性にインスパイアされ、元の信号を水平・垂直・水平・垂直に反転させる。
学習は、元の信号を含む4種類の信号を分類することで行われる。
提案する時間空間逆検出法(t-s)の有効性を検証するために,心電図の最も一般的な課題の一つである心房細動(af)を下流課題で検出する。
その結果,本手法で学習したECG表現は,下流タスクにおいて顕著な性能を示すことがわかった。
さらに,表現的特徴空間を探索し,ECG信号のどの部分が表現に寄与するかを調べた結果,時間的逆はECG表現を学習するための空間的逆よりも有効であると結論付けた。
関連論文リスト
- ECGrecover: a Deep Learning Approach for Electrocardiogram Signal Completion [1.727597257312416]
完全12誘導ECG信号を不完全部分から再構成するという課題に対処する。
再建問題に対処するために,新しい目的関数を訓練したU-Netアーキテクチャを用いたモデルを提案する。
論文 参考訳(メタデータ) (2024-05-31T15:17:12Z) - ECG Semantic Integrator (ESI): A Foundation ECG Model Pretrained with LLM-Enhanced Cardiological Text [14.06147507373525]
本研究は,12誘導ECG信号の学習表現の品質とロバスト性の向上を目的とした,新しいマルチモーダルコントラスト保持フレームワークを提案する。
私たちのフレームワークは、Cardio Query Assistant(CQA)とECG Semantics Integrator(ESI)の2つの重要なコンポーネントで構成されています。
論文 参考訳(メタデータ) (2024-05-26T06:45:39Z) - NERULA: A Dual-Pathway Self-Supervised Learning Framework for Electrocardiogram Signal Analysis [5.8961928852930034]
本稿では,シングルリードECG信号を対象とした自己教師型フレームワークNERULAを提案する。
NERULAのデュアルパスウェイアーキテクチャは、心電図再構成と非コントラスト学習を組み合わせて、詳細な心臓の特徴を抽出する。
学習スペクトルに生成経路と識別経路を組み合わせることで、様々なタスクにおいて最先端の自己教師付き学習ベンチマークより優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2024-05-21T14:01:57Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - ECG-SL: Electrocardiogram(ECG) Segment Learning, a deep learning method
for ECG signal [19.885905393439014]
本稿では,ECG信号の周期的性質をモデル化する新しいECG-Segment Based Learning (ECG-SL) フレームワークを提案する。
この構造的特徴に基づき, 時間的モデルを用いて, 各種臨床業務の時間的情報学習を行う。
提案手法はベースラインモデルより優れ,3つの臨床応用におけるタスク固有手法と比較して競争性能が向上する。
論文 参考訳(メタデータ) (2023-10-01T23:17:55Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - PulseNet: Deep Learning ECG-signal classification using random
augmentation policy and continous wavelet transform for canines [46.09869227806991]
犬心電図(ECG)の評価には熟練した獣医が必要である。
心電図の解釈と診断支援のための獣医師の現在の利用状況は限られている。
犬の心電図配列を正常または異常と分類するためのディープ畳み込みニューラルネットワーク(CNN)アプローチを実装した。
論文 参考訳(メタデータ) (2023-05-17T09:06:39Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - Dynamic Graph Modeling of Simultaneous EEG and Eye-tracking Data for
Reading Task Identification [79.41619843969347]
我々は、脳波(EEG)と眼球運動(EM)データからヒトの読取意図を特定するための新しいアプローチAdaGTCNを提案する。
本稿では,AdaGTCN(Adaptive Graph Temporal Convolution Network)の手法として,Adaptive Graph Learning LayerとDeep Neighborhood Graph Convolution Layerを用いた。
このアプローチといくつかのベースラインを比較し、ZuCo 2.0データセットの6.29%の改善と広範なアブレーション実験を報告します。
論文 参考訳(メタデータ) (2021-02-21T18:19:49Z) - ECG-DelNet: Delineation of Ambulatory Electrocardiograms with Mixed
Quality Labeling Using Neural Networks [69.25956542388653]
ディープラーニング(DL)アルゴリズムは、学術的、産業的にも重くなっている。
セグメンテーションフレームワークにECGの検出とデライン化を組み込むことにより、低解釈タスクにDLをうまく適用できることを実証する。
このモデルは、PhyloNetのQTデータベースを使用して、105個の増幅ECG記録から訓練された。
論文 参考訳(メタデータ) (2020-05-11T16:29:12Z) - Self-supervised ECG Representation Learning for Emotion Recognition [25.305949034527202]
我々は心電図に基づく感情認識のための自己教師型深層マルチタスク学習フレームワークを利用する。
提案手法は,完全教師付き学習を用いて学習したネットワークと比較して,性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-02-04T17:15:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。