論文の概要: Memory-Efficient, Limb Position-Aware Hand Gesture Recognition using
Hyperdimensional Computing
- arxiv url: http://arxiv.org/abs/2103.05267v1
- Date: Tue, 9 Mar 2021 07:31:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 08:59:35.129445
- Title: Memory-Efficient, Limb Position-Aware Hand Gesture Recognition using
Hyperdimensional Computing
- Title(参考訳): 超次元計算を用いたメモリ効率・肢位置認識
- Authors: Andy Zhou, Rikky Muller, and Jan Rabaey
- Abstract要約: 超次元計算モデルを用いて加速度計とEMG信号のセンサ融合を行う。
分類精度は最大93.34%,EMGのみで訓練したモデルを用いて17.79%向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Electromyogram (EMG) pattern recognition can be used to classify hand
gestures and movements for human-machine interface and prosthetics
applications, but it often faces reliability issues resulting from limb
position change. One method to address this is dual-stage classification, in
which the limb position is first determined using additional sensors to select
between multiple position-specific gesture classifiers. While improving
performance, this also increases model complexity and memory footprint, making
a dual-stage classifier difficult to implement in a wearable device with
limited resources. In this paper, we present sensor fusion of accelerometer and
EMG signals using a hyperdimensional computing model to emulate dual-stage
classification in a memory-efficient way. We demonstrate two methods of
encoding accelerometer features to act as keys for retrieval of
position-specific parameters from multiple models stored in superposition.
Through validation on a dataset of 13 gestures in 8 limb positions, we obtain a
classification accuracy of up to 93.34%, an improvement of 17.79% over using a
model trained solely on EMG. We achieve this while only marginally increasing
memory footprint over a single limb position model, requiring $8\times$ less
memory than a traditional dual-stage classification architecture.
- Abstract(参考訳): 電気筋電図(EMG)パターン認識は、人間-機械インタフェースおよび義手アプリケーションの手のジェスチャーおよび動きを分類するために使用することができるが、四肢の位置変化に起因する信頼性の問題にしばしば直面する。
これに対処する1つの方法はデュアルステージ分類であり、まずは複数の位置特定ジェスチャ分類器の間で選択する追加のセンサーを使用して四肢の位置を決定する。
パフォーマンス向上と同時に、モデルの複雑さとメモリフットプリントも向上し、リソースの少ないウェアラブルデバイスでは、デュアルステージの分類器の実装が困難になる。
本稿では,超次元計算モデルを用いて,加速度計とemg信号のセンサ融合を行い,メモリ効率の高い2段分類を行う。
重ね合わせに格納された複数のモデルから位置特定パラメータを検索するためのキーとして,加速度計の特徴を符号化する2つの方法を示す。
8つの手足の位置にある13のジェスチャーのデータセットの検証により、93.34%の分類精度が得られ、17.79%の改善はEMGでのみ訓練されたモデルよりも向上した。
単一の四肢の位置モデルよりもわずかにメモリフットプリントを増加させるだけで、従来のデュアルステージ分類アーキテクチャよりも8\times$のメモリを必要とします。
関連論文リスト
- Decomposed Vector-Quantized Variational Autoencoder for Human Grasp Generation [27.206656215734295]
本稿では,DVQ-VAE(Decomposed Vector-Quantized Variational Autoencoder)を提案する。
部分認識の分解アーキテクチャは、手とオブジェクトの各コンポーネント間のインタラクションをより正確に管理するのに役立つ。
提案モデルでは,4つのベンチマークにおいて,最先端の手法と比較して,品質指標の14.1%の相対的な改善を実現した。
論文 参考訳(メタデータ) (2024-07-19T06:41:16Z) - Coordinate Transformer: Achieving Single-stage Multi-person Mesh
Recovery from Videos [91.44553585470688]
ビデオから複数人の3Dメッシュを回収することは、バーチャルリアリティーや理学療法などにおけるグループ行動の自動認識に向けた重要な第一歩である。
本稿では,複数人物の時空間関係を直接モデル化し,同時にエンドツーエンドでマルチ・メッシュ・リカバリを行うコーディネート・トランスフォーマーを提案する。
3DPWデータセットの実験では、CoordFormerが最先端の精度を大幅に向上し、MPJPE、PAMPJPE、PVEの計測値でそれぞれ4.2%、8.8%、そして4.7%を上回った。
論文 参考訳(メタデータ) (2023-08-20T18:23:07Z) - Self-Attentive Pooling for Efficient Deep Learning [6.822466048176652]
そこで本研究では,標準プーリング層に対するドロップイン代替として使用可能な,非局所的な自己係留型プーリング手法を提案する。
我々は、ImageNet上のMobileNet-V2の様々な変種に対する既存のプール技術のテスト精度を平均1.2%上回る。
提案手法は,イソメモリフットプリントを用いたSOTA技術と比較して1.43%高い精度を実現している。
論文 参考訳(メタデータ) (2022-09-16T00:35:14Z) - Voxelmorph++ Going beyond the cranial vault with keypoint supervision
and multi-channel instance optimisation [8.88841928746097]
近年のLearn2Regベンチマークでは,単スケールU-Netアーキテクチャーは腹部または患者内肺登録の最先端性能に劣っている。
本稿では、この精度のギャップを大幅に減らすための2つの簡単な手順を提案する。
まず、離散化されたヒートマップを予測する新しいネットワークヘッドを備えたキーポイント・セルフスーパービジョンを用いる。
次に、複数の学習した微調整ステップを、手作りの機能とAdamオプティマイザでひとつのインスタンスに置き換える。
論文 参考訳(メタデータ) (2022-02-28T19:23:29Z) - ViT-HGR: Vision Transformer-based Hand Gesture Recognition from High
Density Surface EMG Signals [14.419091034872682]
本研究では,高密度(HD-sEMG)信号から手動ジェスチャー認識を行う視覚変換器(ViT)アーキテクチャについて検討・設計する。
提案したViT-HGRフレームワークは,トレーニング時間の問題を克服し,多数の手の動きをスクラッチから正確に分類することができる。
64サンプル (31.25 ms) の窓サイズ実験では, 平均テスト精度は84.62 +/-3.07%であり, 78, 210個のパラメータしか利用していない。
論文 参考訳(メタデータ) (2022-01-25T02:42:50Z) - Unsupervised Motion Representation Learning with Capsule Autoencoders [54.81628825371412]
Motion Capsule Autoencoder (MCAE) は、2レベル階層のモーションをモデル化する。
MCAEは、新しいTrajectory20モーションデータセットと、様々な現実世界の骨格に基づく人間のアクションデータセットで評価されている。
論文 参考訳(メタデータ) (2021-10-01T16:52:03Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - When Liebig's Barrel Meets Facial Landmark Detection: A Practical Model [87.25037167380522]
正確で、堅牢で、効率的で、一般化可能で、エンドツーエンドのトレーニングが可能なモデルを提案する。
精度を向上させるために,2つの軽量モジュールを提案する。
DQInitは、インプットからデコーダのクエリを動的に初期化し、複数のデコーダ層を持つものと同じ精度でモデルを実現する。
QAMemは、共有するクエリではなく、それぞれのクエリに別々のメモリ値を割り当てることで、低解像度のフィーチャーマップ上のクエリの識別能力を高めるように設計されている。
論文 参考訳(メタデータ) (2021-05-27T13:51:42Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。