論文の概要: Posture-Informed Muscular Force Learning for Robust Hand Pressure Estimation
- arxiv url: http://arxiv.org/abs/2410.23629v2
- Date: Fri, 01 Nov 2024 08:38:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-04 14:34:11.820485
- Title: Posture-Informed Muscular Force Learning for Robust Hand Pressure Estimation
- Title(参考訳): ロバスト手圧推定のための姿勢インフォームド筋力学習
- Authors: Kyungjin Seo, Junghoon Seo, Hanseok Jeong, Sangpil Kim, Sang Ho Yoon,
- Abstract要約: 本稿では,手圧推定を向上する新しいフレームワークであるPiMForceを提案する。
本手法は,3次元手話からの詳細な空間情報と,sEMGの動的筋活動とを併用する。
本フレームワークは,複雑な相互作用シナリオと自然な相互作用シナリオにおいて,正確な手圧力推定を可能にする。
- 参考スコア(独自算出の注目度): 6.912016522494431
- License:
- Abstract: We present PiMForce, a novel framework that enhances hand pressure estimation by leveraging 3D hand posture information to augment forearm surface electromyography (sEMG) signals. Our approach utilizes detailed spatial information from 3D hand poses in conjunction with dynamic muscle activity from sEMG to enable accurate and robust whole-hand pressure measurements under diverse hand-object interactions. We also developed a multimodal data collection system that combines a pressure glove, an sEMG armband, and a markerless finger-tracking module. We created a comprehensive dataset from 21 participants, capturing synchronized data of hand posture, sEMG signals, and exerted hand pressure across various hand postures and hand-object interaction scenarios using our collection system. Our framework enables precise hand pressure estimation in complex and natural interaction scenarios. Our approach substantially mitigates the limitations of traditional sEMG-based or vision-based methods by integrating 3D hand posture information with sEMG signals. Video demos, data, and code are available online.
- Abstract(参考訳): 本稿では,3次元手指姿勢情報を利用して手指表面筋電図(sEMG)信号の増大を図り,手指圧推定を行う新しいフレームワークであるPiMForceについて述べる。
本手法では,3次元手ポーズの詳細な空間情報とsEMGの動的筋活動とを併用し,多種多様な手動物体間相互作用下での高精度で頑健な手動圧測定を実現する。
また、圧力グローブ、sEMGアームバンド、マーカーレス指追跡モジュールを組み合わせたマルチモーダルデータ収集システムを開発した。
我々は、21人の参加者から総合的なデータセットを作成し、手姿勢、sEMG信号の同期データを収集し、様々な手姿勢を横断する手圧、手-物体相互作用のシナリオを収集システムを用いて測定した。
本フレームワークは,複雑な相互作用シナリオと自然な相互作用シナリオにおいて,正確な手圧力推定を可能にする。
本手法は,3次元手の姿勢情報をsEMG信号と統合することにより,従来のsEMG法や視覚的手法の限界を大幅に軽減する。
ビデオデモ、データ、コードはオンラインで公開されている。
関連論文リスト
- EgoPressure: A Dataset for Hand Pressure and Pose Estimation in Egocentric Vision [69.1005706608681]
EgoPressureは,エゴセントリックな視点から,タッチ接触と圧力相互作用の新たなデータセットである。
EgoPressureは、動くエゴセントリックカメラと7台の静止Kinectカメラによって捕獲された21人の参加者による5.0時間の接触接触と圧力相互作用で構成されている。
論文 参考訳(メタデータ) (2024-09-03T18:53:32Z) - FORS-EMG: A Novel sEMG Dataset for Hand Gesture Recognition Across Multiple Forearm Orientations [1.444899524297657]
サーフェス・エレクトロミー(sEMG)信号はジェスチャー認識や頑丈な義手の開発において大きな可能性を秘めている。
sEMG信号は、前腕の向き、前腕の変位、手足の位置など、生理的または動的要因によって妥協される。
本稿では,3つの前腕方向で行う日常生活動作を評価するための電極sEMG信号のデータセットを提案する。
論文 参考訳(メタデータ) (2024-09-03T14:23:06Z) - HUP-3D: A 3D multi-view synthetic dataset for assisted-egocentric hand-ultrasound pose estimation [11.876066932162873]
HUP-3Dは手動超音波プローブポーズ推定のための3次元マルチビュー合成データセットである。
私たちのデータセットは31万以上の動きで構成されています。
我々のアプローチには、画像レンダリングの概念、様々な手や腕のテクスチャによる多様性の向上が含まれる。
論文 参考訳(メタデータ) (2024-07-12T12:25:42Z) - Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z) - HMP: Hand Motion Priors for Pose and Shape Estimation from Video [52.39020275278984]
我々は,多種多様な高品質の手の動きを特徴とするAMASSデータセットに基づいて,手動に特有な生成動作を開発する。
頑健な動きの統合は、特に隠蔽されたシナリオにおいて、パフォーマンスを著しく向上させる。
HO3DおよびDexYCBデータセットの質的および定量的評価により,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-12-27T22:35:33Z) - Reconfigurable Data Glove for Reconstructing Physical and Virtual Grasps [100.72245315180433]
本研究では,人間の手-物体相互作用の異なるモードを捉えるために,再構成可能なデータグローブの設計を提案する。
グローブは3つのモードで動作し、異なる特徴を持つ様々な下流タスクを実行する。
i)手の動きと関連力を記録し,(ii)VRの操作流速を改善するとともに,(iii)様々なツールの現実的なシミュレーション効果を生み出すことにより,システムの3つのモードを評価する。
論文 参考訳(メタデータ) (2023-01-14T05:35:50Z) - Spatial-Temporal Parallel Transformer for Arm-Hand Dynamic Estimation [7.043124227237034]
そこで本研究では,腕と手の関係を利用して,単眼ビデオから腕と手の動きを推定する手法を提案する。
2次元手ポーズ推定モデルと3次元人ポーズ推定モデルを統合することにより、単眼ビデオから可塑性アームと手動ダイナミクスを生成できる。
論文 参考訳(メタデータ) (2022-03-30T10:51:41Z) - MM-Hand: 3D-Aware Multi-Modal Guided Hand Generative Network for 3D Hand
Pose Synthesis [81.40640219844197]
モノラルなRGB画像から3Dハンドポーズを推定することは重要だが難しい。
解決策は、高精度な3D手指キーポイントアノテーションを用いた大規模RGB手指画像のトレーニングである。
我々は,現実的で多様な3次元ポーズ保存ハンドイメージを合成する学習ベースアプローチを開発した。
論文 参考訳(メタデータ) (2020-10-02T18:27:34Z) - Body2Hands: Learning to Infer 3D Hands from Conversational Gesture Body
Dynamics [87.17505994436308]
身体の動きと手の動きは、非言語的コミュニケーション設定において強く相関しているという知見に基づいて構築する。
身体の動きのみを入力した場合の3次元手形状の予測タスクとして,この先行学習を定式化する。
本モデルでは,3次元手の動きのみを入力として,手の動きを説得力のある3次元手の動きを生成する。
論文 参考訳(メタデータ) (2020-07-23T22:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。