論文の概要: Similarity Learning based Few Shot Learning for ECG Time Series
Classification
- arxiv url: http://arxiv.org/abs/2202.00612v1
- Date: Mon, 31 Jan 2022 09:47:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 08:00:20.117428
- Title: Similarity Learning based Few Shot Learning for ECG Time Series
Classification
- Title(参考訳): ECG時系列分類のための類似学習に基づくFew Shot Learning
- Authors: Priyanka Gupta, Sathvik Bhaskarpandit, Manik Gupta
- Abstract要約: 本稿では,シームズ畳み込みニューラルネットワークを用いたECG不整脈分類のための類似学習に基づくFew Shot Learningを提案する。
ほとんどショットラーニングは、まず、関連する比較的大きなデータベース上でモデルを事前訓練することに依存し、次に学習を使用して、クラス毎に利用可能な少数のサンプルにさらなる適応を行う。
- 参考スコア(独自算出の注目度): 1.4665304971699262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Using deep learning models to classify time series data generated from the
Internet of Things (IoT) devices requires a large amount of labeled data.
However, due to constrained resources available in IoT devices, it is often
difficult to accommodate training using large data sets. This paper proposes
and demonstrates a Similarity Learning-based Few Shot Learning for ECG
arrhythmia classification using Siamese Convolutional Neural Networks. Few shot
learning resolves the data scarcity issue by identifying novel classes from
very few labeled examples. Few Shot Learning relies first on pretraining the
model on a related relatively large database, and then the learning is used for
further adaptation towards few examples available per class. Our experiments
evaluate the performance accuracy with respect to K (number of instances per
class) for ECG time series data classification. The accuracy with 5- shot
learning is 92.25% which marginally improves with further increase in K. We
also compare the performance of our method against other well-established
similarity learning techniques such as Dynamic Time Warping (DTW), Euclidean
Distance (ED), and a deep learning model - Long Short Term Memory Fully
Convolutional Network (LSTM-FCN) with the same amount of data and conclude that
our method outperforms them for a limited dataset size. For K=5, the accuracies
obtained are 57%, 54%, 33%, and 92% approximately for ED, DTW, LSTM-FCN, and
SCNN, respectively.
- Abstract(参考訳): ディープラーニングモデルを使用して、IoT(Internet of Things)デバイスから生成された時系列データを分類するには、大量のラベル付きデータが必要である。
しかし、IoTデバイスで利用可能なリソースが制限されているため、大規模なデータセットを使用したトレーニングに適応することが難しい場合が多い。
本稿では,シームズ畳み込みニューラルネットワークを用いたECG不整脈分類のための類似学習に基づくFew Shot Learningを提案する。
わずかなラベル付き例から新しいクラスを特定することで、データの不足を解消するショットラーニングはほとんどない。
ほとんどショットラーニングは、まず、関連する比較的大きなデータベース上でモデルを事前訓練することに依存し、次に学習を使用して、クラス毎に利用可能な少数のサンプルにさらなる適応を行う。
本実験では,ECG時系列データ分類におけるK(クラス毎のインスタンス数)の性能評価を行った。
5ショット学習の精度は92.25%で,さらにkの増大とともにわずかに向上する。また,動的時間ウォーピング(dtw),ユークリッド距離(ed),深層学習モデル(lstm-fcn)といった他の確立された類似性学習手法と同等のデータ量を持つ長期記憶完全畳み込みネットワーク(lstm-fcn)との比較を行い,本手法が限られたデータセットサイズでそれらの性能を上回ることを結論づけた。
K=5では, ED, DTW, LSTM-FCN, SCNNの57%, 54%, 33%, 92%であった。
関連論文リスト
- Few-shot Learning using Data Augmentation and Time-Frequency
Transformation for Time Series Classification [6.830148185797109]
データ拡張による新しい数ショット学習フレームワークを提案する。
シークエンス・スペクトログラム・ニューラルネット(SSNN)も開発している。
本手法は,時系列分類における数ショット問題への対処法の適用性を実証する。
論文 参考訳(メタデータ) (2023-11-06T15:32:50Z) - KAKURENBO: Adaptively Hiding Samples in Deep Neural Network Training [2.8804804517897935]
深層ニューラルネットワークのトレーニングにおいて,最も重要でないサンプルを隠蔽する手法を提案する。
我々は,学習プロセス全体への貢献に基づいて,与えられたエポックを除外するサンプルを適応的に見つける。
本手法は, ベースラインと比較して, 最大22%の精度でトレーニング時間を短縮できる。
論文 参考訳(メタデータ) (2023-10-16T06:19:29Z) - Stabilizing Subject Transfer in EEG Classification with Divergence
Estimation [17.924276728038304]
脳波分類タスクを記述するためのグラフィカルモデルをいくつか提案する。
理想的な訓練シナリオにおいて真であるべき統計的関係を同定する。
我々は、これらの関係を2段階で強制する正規化罰則を設計する。
論文 参考訳(メタデータ) (2023-10-12T23:06:52Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - Towards Similarity-Aware Time-Series Classification [51.2400839966489]
時系列データマイニングの基本課題である時系列分類(TSC)について検討する。
グラフニューラルネットワーク(GNN)を用いて類似情報をモデル化するフレームワークであるSimTSCを提案する。
論文 参考訳(メタデータ) (2022-01-05T02:14:57Z) - Efficient training of lightweight neural networks using Online
Self-Acquired Knowledge Distillation [51.66271681532262]
オンライン自己獲得知識蒸留(OSAKD)は、ディープニューラルネットワークの性能をオンライン的に向上することを目的としている。
出力特徴空間におけるデータサンプルの未知確率分布を推定するために、k-nnノンパラメトリック密度推定手法を用いる。
論文 参考訳(メタデータ) (2021-08-26T14:01:04Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - Combining Deep Transfer Learning with Signal-image Encoding for
Multi-Modal Mental Wellbeing Classification [2.513785998932353]
本稿では,複数のマルチモーダルデータセット上で感情状態認識を行う際の限界に対処する枠組みを提案する。
5-point Likertスケールで評価された実世界の幸福度を推定する際のモデル性能は,我々のフレームワークを用いて向上できることを示す。
論文 参考訳(メタデータ) (2020-11-20T13:37:23Z) - Data Separability for Neural Network Classifiers and the Development of
a Separability Index [17.49709034278995]
データセットの分離性を測定するために、DSI(Distance-based Separability Index)を作成しました。
DSIは、異なるクラスに属するデータに類似した分布があるかどうかを示す。
また、データサイエンス、機械学習、ディープラーニングの分野におけるDSIの応用の可能性についても論じている。
論文 参考訳(メタデータ) (2020-05-27T01:49:19Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - ECG-DelNet: Delineation of Ambulatory Electrocardiograms with Mixed
Quality Labeling Using Neural Networks [69.25956542388653]
ディープラーニング(DL)アルゴリズムは、学術的、産業的にも重くなっている。
セグメンテーションフレームワークにECGの検出とデライン化を組み込むことにより、低解釈タスクにDLをうまく適用できることを実証する。
このモデルは、PhyloNetのQTデータベースを使用して、105個の増幅ECG記録から訓練された。
論文 参考訳(メタデータ) (2020-05-11T16:29:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。