論文の概要: Optimization of Residual Convolutional Neural Network for
Electrocardiogram Classification
- arxiv url: http://arxiv.org/abs/2112.06024v1
- Date: Sat, 11 Dec 2021 16:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 18:58:29.232148
- Title: Optimization of Residual Convolutional Neural Network for
Electrocardiogram Classification
- Title(参考訳): 心電図分類のための残差畳み込みニューラルネットワークの最適化
- Authors: Zeineb Fki, Boudour Ammar and Mounir Ben Ayed
- Abstract要約: 本稿では,2段階のリカレント1次元畳み込みニューラルネットワークモデル(R-1D-CNN)を提案する。
第1段階では、残留畳み込み層と1次元畳み込みニューラルネットワーク層をトレーニングし、患者固有の心電図の特徴を学習する。
2番目のレベルは自動であり、提案アルゴリズムに基づくBOに基づいている。
- 参考スコア(独自算出の注目度): 0.9281671380673306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The interpretation of the electrocardiogram (ECG) gives clinical information
and helps in the assessing of the heart function. There are distinct ECG
patterns associated with a specific class of arrythmia. The convolutional
neural network is actually one of the most applied deep learning algorithms in
ECG processing. However, with deep learning models there are many more
hyperparameters to tune. Selecting an optimum or best hyperparameter for the
convolutional neural network algorithm is challenging. Often, we end up tuning
the model manually with different possible range of values until a best fit
model is obtained. Automatic hyperparameters tuning using Bayesian optimization
(BO) and evolutionary algorithms brings a solution to the harbor manual
configuration. In this paper, we propose to optimize the Recurrent one
Dimensional Convolutional Neural Network model (R-1D-CNN) with two levels. At
the first level, a residual convolutional layer and one-dimensional
convolutional neural layers are trained to learn patient-specific ECG features
over which the multilayer perceptron layers can learn to produce the final
class vectors of each input. This level is manual and aims to lower the search
space. The second level is automatic and based on proposed algorithm based BO.
Our proposed optimized R-1D-CNN architecture is evaluated on two publicly
available ECG Datasets. The experimental results display that the proposed
algorithm based BO achieves an optimum rate of 99.95\%, while the baseline
model achieves 99.70\% for the MIT-BIH database. Moreover, experiments
demonstrate that the proposed architecture fine-tuned with BO achieves a higher
accuracy than the other proposed architectures. Our architecture achieves a
good result compared to previous works and based on different experiments.
- Abstract(参考訳): 心電図(ECG)の解釈は臨床情報を与え、心臓機能の評価に役立つ。
特定のarthmiaのクラスに関連付けられた異なるECGパターンが存在する。
畳み込みニューラルネットワークは、実際にはECG処理において最も応用されたディープラーニングアルゴリズムの1つである。
しかし、ディープラーニングモデルでは、チューニングすべきハイパーパラメータがもっとたくさんあります。
畳み込みニューラルネットワークアルゴリズムの最適あるいは最良のハイパーパラメータを選択することは難しい。
多くの場合、最適なモデルが得られるまで、手動で異なる可能な範囲の値でモデルをチューニングします。
ベイズ最適化(BO)と進化アルゴリズムを用いた自動ハイパーパラメータチューニングは、ハーバー手動構成に解決策をもたらす。
本稿では,再帰的1次元畳み込みニューラルネットワークモデル(r-1d-cnn)を2レベルに最適化する。
第1段階では、残差畳み込み層と1次元畳み込みニューラルネットワーク層を訓練して、多層パーセプトロン層が各入力の最終クラスベクトルを生成することができる患者固有のECG特徴を学習する。
このレベルは手作業で、検索スペースの削減を目指している。
2番目のレベルは自動であり、提案アルゴリズムに基づくBOに基づいている。
提案したR-1D-CNNアーキテクチャを2つの公開ECGデータセット上で評価する。
実験結果から,提案アルゴリズムに基づくBOが99.95 %,ベースラインモデルが99.70 %,MIT-BIH データベースが99.70 %となることがわかった。
さらに,提案アーキテクチャをBOで微調整することにより,他のアーキテクチャよりも精度が高いことを示す。
我々のアーキテクチャは、以前の作品と比べて良い結果をもたらし、異なる実験に基づいています。
関連論文リスト
- Evolutionary Optimization of 1D-CNN for Non-contact Respiration Pattern Classification [0.19999259391104385]
時系列呼吸データ分類のための深層学習に基づくアプローチを提案する。
分類のために1次元畳み込みニューラルネットワーク(1D-CNN)を用いた。
遺伝的アルゴリズムを用いて分類精度を最大化するために1D-CNNアーキテクチャを最適化した。
論文 参考訳(メタデータ) (2023-12-20T13:59:43Z) - Arrhythmia Classifier Based on Ultra-Lightweight Binary Neural Network [4.8083529516303924]
本稿では,ECG信号に基づく5クラス,17クラスの不整脈分類が可能な超軽量バイナリニューラルネットワークを提案する。
本モデルは17クラス分類において最適精度を達成し,エレガントにシンプルなネットワークアーキテクチャを有する。
我々の研究は、医療産業における軽量なディープラーニングモデルの可能性を示している。
論文 参考訳(メタデータ) (2023-04-04T06:47:54Z) - Prompt Tuning for Parameter-efficient Medical Image Segmentation [79.09285179181225]
2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
我々はこのアーキテクチャを、オンライン生成プロトタイプへの割り当てに基づく専用密集型セルフスーパービジョンスキームで事前訓練する。
得られたニューラルネットワークモデルにより、完全に微調整されたモデルとパラメータに適応したモデルとのギャップを緩和できることを実証する。
論文 参考訳(メタデータ) (2022-11-16T21:55:05Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - EvoPruneDeepTL: An Evolutionary Pruning Model for Transfer Learning
based Deep Neural Networks [15.29595828816055]
本稿では,トランスファーラーニングに基づくディープニューラルネットワークのための進化的プルーニングモデルを提案する。
EvoPruneDeepTLは、最後の完全に接続されたレイヤを遺伝的アルゴリズムによって最適化されたスパースレイヤで置き換える。
その結果,ネットワーク全体の計算効率に対するEvoPruneDeepTLと特徴選択の寄与が示された。
論文 参考訳(メタデータ) (2022-02-08T13:07:55Z) - End-to-End Learning of Deep Kernel Acquisition Functions for Bayesian
Optimization [39.56814839510978]
ニューラルネットワークに基づくカーネルを用いたベイズ最適化のためのメタラーニング手法を提案する。
我々のモデルは、複数のタスクから強化学習フレームワークによって訓練されている。
3つのテキスト文書データセットを用いた実験において,提案手法が既存の手法よりも優れたBO性能を実現することを示す。
論文 参考訳(メタデータ) (2021-11-01T00:42:31Z) - Exploiting Adam-like Optimization Algorithms to Improve the Performance
of Convolutional Neural Networks [82.61182037130405]
勾配降下(SGD)は深いネットワークを訓練するための主要なアプローチです。
本研究では,現在と過去の勾配の違いに基づいて,Adamに基づく変分を比較する。
resnet50を勾配降下訓練したネットワークのアンサンブルと融合実験を行った。
論文 参考訳(メタデータ) (2021-03-26T18:55:08Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。