論文の概要: Research on gesture recognition method based on SEDCNN-SVM
- arxiv url: http://arxiv.org/abs/2410.18557v1
- Date: Thu, 24 Oct 2024 09:02:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:50:03.421858
- Title: Research on gesture recognition method based on SEDCNN-SVM
- Title(参考訳): SEDCNN-SVMに基づくジェスチャー認識手法に関する研究
- Authors: Mingjin Zhang, Jiahao Wang, Jianming Wang, Qi Wang,
- Abstract要約: 異なるジェスチャーのsEMGを認識するためにSEDCNN-SVMを提案する。
SEDCNN-SVMは、改良されたディープ畳み込みニューラルネットワーク(DCNN)とサポートベクターマシン(SVM)から構成される。
- 参考スコア(独自算出の注目度): 23.334616185686
- License:
- Abstract: Gesture recognition based on surface electromyographic signal (sEMG) is one of the most used methods. The traditional manual feature extraction can only extract some low-level signal features, this causes poor classifier performance and low recognition accuracy when dealing with some complex signals. A recognition method, namely SEDCNN-SVM, is proposed to recognize sEMG of different gestures. SEDCNN-SVM consists of an improved deep convolutional neural network (DCNN) and a support vector machine (SVM). The DCNN can automatically extract and learn the feature information of sEMG through the convolution operation of the convolutional layer, so that it can capture the complex and high-level features in the data. The Squeeze and Excitation Networks (SE-Net) and the residual module were added to the model, so that the feature representation of each channel could be improved, the loss of feature information in convolutional operations was reduced, useful feature information was captured, and the problem of network gradient vanishing was eased. The SVM can improve the generalization ability and classification accuracy of the model by constructing an optimal hyperplane of the feature space. Hence, the SVM was used to replace the full connection layer and the Softmax function layer of the DCNN, the use of a suitable kernel function in SVM can improve the model's generalization ability and classification accuracy. To verify the effectiveness of the proposed classification algorithm, this method is analyzed and compared with other comparative classification methods. The recognition accuracy of SEDCNN-SVM can reach 0.955, it is significantly improved compared with other classification methods, the SEDCNN-SVM model is recognized online in real time.
- Abstract(参考訳): 表面筋電信号(sEMG)に基づくジェスチャー認識は最もよく用いられる手法の一つである。
従来の手動の特徴抽出は、いくつかの低レベル信号の特徴しか抽出できないため、複雑な信号を扱う場合、分類器の性能が低下し、認識精度が低下する。
異なるジェスチャーのsEMGを認識するために,SEDCNN-SVMという認識手法を提案する。
SEDCNN-SVMは改良されたディープ畳み込みニューラルネットワーク(DCNN)とサポートベクターマシン(SVM)で構成されている。
DCNNは、畳み込み層の畳み込み操作を通じて、sEMGの特徴情報を自動で抽出し、学習し、データの複雑で高レベルな特徴をキャプチャすることができる。
Squeeze and Excitation Networks (SE-Net) と残留モジュールがモデルに追加され、各チャネルの特徴表現が改善され、畳み込み操作における特徴情報の損失が低減され、有用な特徴情報が取得され、ネットワーク勾配の解消の問題が緩和された。
SVMは特徴空間の最適超平面を構築することによりモデルの一般化能力と分類精度を向上させることができる。
したがって、SVMはDCNNの完全な接続層とSoftmax関数層を置き換えるために用いられ、SVMに適切なカーネル関数を用いることで、モデルの一般化能力と分類精度を向上させることができる。
提案手法の有効性を検証するため,本手法を他の比較分類法と比較した。
SEDCNN-SVMの認識精度は0.955に達し、他の分類法と比較して大幅に改善され、SEDCNN-SVMモデルはオンラインでリアルタイムに認識される。
関連論文リスト
- Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - Evaluating Fast Adaptability of Neural Networks for Brain-Computer Interface [0.23020018305241333]
我々は,CNN(Convolutional Neural Networks)に基づく分類器の入力として,運動運動と想像信号を用いる。
実験により,CNNを用いたEEG分類器の適応性は10段階未満で向上することが示された。
論文 参考訳(メタデータ) (2024-04-14T22:36:53Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - SA-CNN: Application to text categorization issues using simulated
annealing-based convolutional neural network optimization [0.0]
畳み込みニューラルネットワーク(CNN)は、ディープラーニングアルゴリズムの代表クラスである。
テキストCNNニューラルネットワークに基づくテキスト分類タスクのためのSA-CNNニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-13T14:27:34Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Ghost-dil-NetVLAD: A Lightweight Neural Network for Visual Place Recognition [3.6249801498927923]
本稿では,GhostCNNと呼ばれるフロントエンド認識モデルと学習可能なVLAD層をバックエンドとして構成した,軽量な教師付きエンドツーエンドニューラルネットワークを提案する。
提案する軽量モデルをさらに強化するため,Ghostモジュールに拡張畳み込みを加えて,より空間的意味情報を含む特徴を抽出し,精度を向上する。
論文 参考訳(メタデータ) (2021-12-22T06:05:02Z) - Learning A 3D-CNN and Transformer Prior for Hyperspectral Image
Super-Resolution [80.93870349019332]
本稿では,CNN の代わりに Transformer を用いて HSI の事前学習を行う新しい HSISR 手法を提案する。
具体的には、まず勾配アルゴリズムを用いてHSISRモデルを解き、次に展開ネットワークを用いて反復解過程をシミュレートする。
論文 参考訳(メタデータ) (2021-11-27T15:38:57Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - TELESTO: A Graph Neural Network Model for Anomaly Classification in
Cloud Services [77.454688257702]
機械学習(ML)と人工知能(AI)はITシステムの運用とメンテナンスに適用される。
1つの方向は、修復自動化を可能にするために、繰り返し発生する異常タイプを認識することである。
与えられたデータの次元変化に不変な手法を提案する。
論文 参考訳(メタデータ) (2021-02-25T14:24:49Z) - A Convolutional Deep Markov Model for Unsupervised Speech Representation
Learning [32.59760685342343]
確率的潜在変数モデルは、音声からの言語表現学習のための自己教師付き学習アプローチの代替を提供する。
本研究では,深いニューラルネットワークによってモデル化された非線形放出と遷移関数を持つガウス状態空間モデルであるConvDMMを提案する。
大規模音声データセット(LibriSpeech)で訓練すると、ConvDMMは複数の自己教師付き特徴抽出法よりもはるかに優れた特徴を生成する。
論文 参考訳(メタデータ) (2020-06-03T21:50:20Z) - Classification of Hand Gestures from Wearable IMUs using Deep Neural
Network [0.0]
慣性測定ユニット(Inertial Measurement Unit, IMU)は3軸加速度計とジャイロスコープで構成される。
本稿では,ウェアラブルIMUセンサから得られる手の動きを分類するために,Deep Neural Network (DNN) を用いた新しい分類手法を提案する。
論文 参考訳(メタデータ) (2020-04-27T01:08:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。