論文の概要: emg2pose: A Large and Diverse Benchmark for Surface Electromyographic Hand Pose Estimation
- arxiv url: http://arxiv.org/abs/2412.02725v1
- Date: Mon, 02 Dec 2024 23:39:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:09:09.114815
- Title: emg2pose: A Large and Diverse Benchmark for Surface Electromyographic Hand Pose Estimation
- Title(参考訳): Emg2pose: 表面筋電図ハンドポース推定のための大規模および多変量ベンチマーク
- Authors: Sasha Salter, Richard Warren, Collin Schlager, Adrian Spurr, Shangchen Han, Rohin Bhasin, Yujun Cai, Peter Walkington, Anuoluwapo Bolarinwa, Robert Wang, Nathan Danielson, Josh Merel, Eftychios Pnevmatikakis, Jesse Marshall,
- Abstract要約: 信頼性と常に利用可能な手ポーズ推論は、人間とコンピュータの相互作用に対する新しい直感的な制御スキームをもたらす可能性がある。
装着可能な手首型表面筋電図(sEMG)は有望な代替手段である。
emg2poseは、高品質の手ポーズラベルと手首のsEMGレコードの公開データセットとして最大である。
- 参考スコア(独自算出の注目度): 12.566524562446467
- License:
- Abstract: Hands are the primary means through which humans interact with the world. Reliable and always-available hand pose inference could yield new and intuitive control schemes for human-computer interactions, particularly in virtual and augmented reality. Computer vision is effective but requires one or multiple cameras and can struggle with occlusions, limited field of view, and poor lighting. Wearable wrist-based surface electromyography (sEMG) presents a promising alternative as an always-available modality sensing muscle activities that drive hand motion. However, sEMG signals are strongly dependent on user anatomy and sensor placement, and existing sEMG models have required hundreds of users and device placements to effectively generalize. To facilitate progress on sEMG pose inference, we introduce the emg2pose benchmark, the largest publicly available dataset of high-quality hand pose labels and wrist sEMG recordings. emg2pose contains 2kHz, 16 channel sEMG and pose labels from a 26-camera motion capture rig for 193 users, 370 hours, and 29 stages with diverse gestures - a scale comparable to vision-based hand pose datasets. We provide competitive baselines and challenging tasks evaluating real-world generalization scenarios: held-out users, sensor placements, and stages. emg2pose provides the machine learning community a platform for exploring complex generalization problems, holding potential to significantly enhance the development of sEMG-based human-computer interactions.
- Abstract(参考訳): 人間が世界と対話する主要な手段は手である。
信頼性と常に利用可能な手ポーズ推論は、特にバーチャルおよび拡張現実において、人間とコンピュータのインタラクションに対する新しい直感的な制御スキームをもたらす可能性がある。
コンピュータビジョンは効果的だが、1台または複数のカメラが必要であり、オクルージョン、視野の制限、照明不足に悩まされる。
装着可能な手首型表面筋電図(sEMG)は、手の動きを駆動する常に利用可能なモダリティ感覚筋活動として有望な代替手段である。
しかし、sEMG信号はユーザの解剖やセンサ配置に強く依存しており、既存のsEMGモデルは効果的に一般化するために数百のユーザとデバイス配置を必要としている。
sEMGのポーズ推定の進歩を促進するために,高品質ハンドポーズラベルと手首のsEMG記録のデータセットとして最も広く公開されているEmg2poseベンチマークを導入する。
Emg2poseには、2kHz、16チャンネルのsEMGと、193ユーザ用の26カメラモーションキャプチャリグからのポーズラベル、370時間、29ステージの多様なジェスチャー - ビジョンベースの手ポーズデータセットに匹敵するスケール - が含まれている。
我々は,実世界の一般化シナリオを評価する,競争力のあるベースラインと課題 – 保留ユーザ,センサ配置,ステージ – を提供する。
Emg2poseは、機械学習コミュニティに複雑な一般化問題を探求するプラットフォームを提供し、sEMGベースのヒューマンコンピュータインタラクションの開発を著しく向上させる可能性を秘めている。
関連論文リスト
- EgoHand: Ego-centric Hand Pose Estimation and Gesture Recognition with Head-mounted Millimeter-wave Radar and IMUs [15.644891766887255]
ボトム対応のVRカメラは、個人の体の一部や周囲などの機密情報を暴露する危険性がある。
手のジェスチャー認識のためのミリ波レーダとIMUを統合するシステムであるEgoHandを紹介する。
実験では、EgoHandは90.8%の精度で手の動きを検出することができる。
論文 参考訳(メタデータ) (2025-01-23T16:25:08Z) - emg2qwerty: A Large Dataset with Baselines for Touch Typing using Surface Electromyography [47.160223334501126]
emg2qwertyは、QWERTYキーボードでタッチ入力しながら手首に記録された非侵襲的筋電図信号の大規模なデータセットである。
1,135のセッションが108ユーザと346時間の録画にまたがっており、これまでで最大の公開データセットである。
sEMG信号のみを用いたキープレッシャの予測において,高いベースライン性能を示す。
論文 参考訳(メタデータ) (2024-10-26T05:18:48Z) - Decomposed Vector-Quantized Variational Autoencoder for Human Grasp Generation [27.206656215734295]
本稿では,DVQ-VAE(Decomposed Vector-Quantized Variational Autoencoder)を提案する。
部分認識の分解アーキテクチャは、手とオブジェクトの各コンポーネント間のインタラクションをより正確に管理するのに役立つ。
提案モデルでは,4つのベンチマークにおいて,最先端の手法と比較して,品質指標の14.1%の相対的な改善を実現した。
論文 参考訳(メタデータ) (2024-07-19T06:41:16Z) - Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z) - HMP: Hand Motion Priors for Pose and Shape Estimation from Video [52.39020275278984]
我々は,多種多様な高品質の手の動きを特徴とするAMASSデータセットに基づいて,手動に特有な生成動作を開発する。
頑健な動きの統合は、特に隠蔽されたシナリオにおいて、パフォーマンスを著しく向上させる。
HO3DおよびDexYCBデータセットの質的および定量的評価により,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-12-27T22:35:33Z) - EMG subspace alignment and visualization for cross-subject hand gesture
classification [0.125828876338076]
そこで本研究では,14人の人物の筋電図を含む独自のデータセットを用いて,物体間一般化の課題を論じ,分析する。
実験結果から,複数の被験者のプール化に基づく正確な一般化は達成できないが,複数の被験者に対するロバストな低次元部分空間を同定し,対象被験者にアライメントすることで,物体間距離推定を改善することが可能であることが示唆された。
論文 参考訳(メタデータ) (2023-12-18T14:32:29Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Reconfigurable Data Glove for Reconstructing Physical and Virtual Grasps [100.72245315180433]
本研究では,人間の手-物体相互作用の異なるモードを捉えるために,再構成可能なデータグローブの設計を提案する。
グローブは3つのモードで動作し、異なる特徴を持つ様々な下流タスクを実行する。
i)手の動きと関連力を記録し,(ii)VRの操作流速を改善するとともに,(iii)様々なツールの現実的なシミュレーション効果を生み出すことにより,システムの3つのモードを評価する。
論文 参考訳(メタデータ) (2023-01-14T05:35:50Z) - ViT-HGR: Vision Transformer-based Hand Gesture Recognition from High
Density Surface EMG Signals [14.419091034872682]
本研究では,高密度(HD-sEMG)信号から手動ジェスチャー認識を行う視覚変換器(ViT)アーキテクチャについて検討・設計する。
提案したViT-HGRフレームワークは,トレーニング時間の問題を克服し,多数の手の動きをスクラッチから正確に分類することができる。
64サンプル (31.25 ms) の窓サイズ実験では, 平均テスト精度は84.62 +/-3.07%であり, 78, 210個のパラメータしか利用していない。
論文 参考訳(メタデータ) (2022-01-25T02:42:50Z) - Physics-Based Dexterous Manipulations with Estimated Hand Poses and
Residual Reinforcement Learning [52.37106940303246]
ノイズの多い入力ポーズをターゲットの仮想ポーズにマッピングするモデルを学習する。
モデルフリーハイブリッドRL+ILアプローチを用いて残留条件下で訓練する。
筆者らは,VRにおける手動物体の相互作用と,それを用いた手動物体の動作再構成という,手動姿勢推定を用いた2つのアプリケーションで,我々のフレームワークを検証した。
論文 参考訳(メタデータ) (2020-08-07T17:34:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。