論文の概要: A Powered Prosthetic Hand with Vision System for Enhancing the Anthropopathic Grasp
- arxiv url: http://arxiv.org/abs/2412.07105v1
- Date: Tue, 10 Dec 2024 01:45:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:35:21.780874
- Title: A Powered Prosthetic Hand with Vision System for Enhancing the Anthropopathic Grasp
- Title(参考訳): 視覚システムを用いた人工手指の人工骨頭置換術
- Authors: Yansong Xu, Xiaohui Wang, Junlin Li, Xiaoqian Zhang, Feng Li, Qing Gao, Chenglong Fu, Yuquan Leng,
- Abstract要約: 本研究では,人手つかみ過程の幾何学的特徴に基づいてジェスチャー関数を構成する空間幾何学に基づくジェスチャーマッピング(SG-GM)手法を提案する。
また,MTR-GIE(Motion Trajectory Regression-based Grasping Intent Estimation)アルゴリズムを提案する。
実験では,カップやフォークなど8つの日常的な物体を把握した。
- 参考スコア(独自算出の注目度): 11.354158680070652
- License:
- Abstract: The anthropomorphism of grasping process significantly benefits the experience and grasping efficiency of prosthetic hand wearers. Currently, prosthetic hands controlled by signals such as brain-computer interfaces (BCI) and electromyography (EMG) face difficulties in precisely recognizing the amputees' grasping gestures and executing anthropomorphic grasp processes. Although prosthetic hands equipped with vision systems enables the objects' feature recognition, they lack perception of human grasping intention. Therefore, this paper explores the estimation of grasping gestures solely through visual data to accomplish anthropopathic grasping control and the determination of grasping intention within a multi-object environment. To address this, we propose the Spatial Geometry-based Gesture Mapping (SG-GM) method, which constructs gesture functions based on the geometric features of the human hand grasping processes. It's subsequently implemented on the prosthetic hand. Furthermore, we propose the Motion Trajectory Regression-based Grasping Intent Estimation (MTR-GIE) algorithm. This algorithm predicts pre-grasping object utilizing regression prediction and prior spatial segmentation estimation derived from the prosthetic hand's position and trajectory. The experiments were conducted to grasp 8 common daily objects including cup, fork, etc. The experimental results presented a similarity coefficient $R^{2}$ of grasping process of 0.911, a Root Mean Squared Error ($RMSE$) of 2.47\degree, a success rate of grasping of 95.43$\%$, and an average duration of grasping process of 3.07$\pm$0.41 s. Furthermore, grasping experiments in a multi-object environment were conducted. The average accuracy of intent estimation reached 94.35$\%$. Our methodologies offer a groundbreaking approach to enhance the prosthetic hand's functionality and provides valuable insights for future research.
- Abstract(参考訳): 把握過程の人為性は,義手装着者の経験と把握効率に大きく寄与した。
現在、脳-コンピュータインタフェース(BCI)や筋電図(EMG)などの信号によって制御される義手は、切断者の把握動作を正確に認識し、人為的把握プロセスを実行するのに困難に直面している。
視覚システムを備えた義手は、物体の特徴認識を可能にするが、人間の把握意図の認識は欠如している。
そこで本研究では,人為的把握制御を実現するために,視覚データのみでの把握動作の推定と,多目的環境における把握意図の決定について検討する。
そこで本研究では,人手つかみ過程の幾何学的特徴に基づいてジェスチャー関数を構成する空間幾何学に基づくジェスチャーマッピング(SG-GM)手法を提案する。
その後、義肢に実装されている。
さらに,MTR-GIE(Motion Trajectory Regression-based Grasping Intent Estimation)アルゴリズムを提案する。
このアルゴリズムは, 義手の位置と軌跡から得られた回帰予測と空間分割推定を用いて, プレグラスピング対象を予測する。
実験では,カップやフォークなど8つの日常的な物体を把握した。
実験結果は,0.11の把握過程の類似係数としてR^{2}$,2.47のRoot Mean Squared Error(RMSE$),95.43$\%$の把握成功率,3.07$\pm$0.41sの把握過程の平均時間を示した。
さらに,多目的環境での把握実験を行った。
意図推定の平均精度は94.35$\%であった。
本手法は,義手の機能を高めるための画期的なアプローチを提供し,今後の研究に有用な知見を提供する。
関連論文リスト
- Machine Learning Assisted Postural Movement Recognition using Photoplethysmography(PPG) [0.0]
転倒検出・転倒防止技術の開発は, 緊急に必要である。
この研究は、姿勢運動を認識するための機械学習技術の使用を初めて提示する。
分類にはさまざまな機械学習アプローチが用いられ、ANN(Artificial Neural Network)が最適であることが判明した。
論文 参考訳(メタデータ) (2024-11-02T18:56:41Z) - AiOS: All-in-One-Stage Expressive Human Pose and Shape Estimation [55.179287851188036]
人間のポーズと形状の復元のための新しいオールインワンステージフレームワークであるAiOSを、追加の人間検出ステップなしで導入する。
まず、画像中の人間の位置を探索し、各インスタンスのグローバルな機能をエンコードするために、人間のトークンを使用します。
そして、画像中の人間の関節を探索し、きめ細かい局所的特徴を符号化するジョイント関連トークンを導入する。
論文 参考訳(メタデータ) (2024-03-26T17:59:23Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - GraspGF: Learning Score-based Grasping Primitive for Human-assisting
Dexterous Grasping [11.63059055320262]
そこで本研究では,人的支援による創発的把握という新たな課題を提案する。
ロボットハンドの指をコントロールして、物をつかむのを助ける政策を訓練することを目指している。
論文 参考訳(メタデータ) (2023-09-12T08:12:32Z) - Non-Contact Heart Rate Measurement from Deteriorated Videos [0.3149883354098941]
リモート・フォトプレソグラフィー (Remote Photoplethysmography) は、顔の映像を分析して人間の脈波を推定するための、最先端で非接触の方法論を提供する。
本研究では,映像品質を意図的に劣化させるために画像処理を適用し,困難な条件を模倣する。
以上の結果から, これらのアーティファクトの存在下での精度の低下が明らかとなり, 修復技術の適用が提案された。
論文 参考訳(メタデータ) (2023-04-28T11:58:36Z) - ShaRPy: Shape Reconstruction and Hand Pose Estimation from RGB-D with
Uncertainty [6.559796851992517]
本稿では,最初のRGB-D形状再構成システムであるShaRPyを提案する。
ShaRPyはパーソナライズされた手の形を近似し、デジタルツインのより現実的で直感的な理解を促進する。
キーポイント検出ベンチマークを用いてShaRPyを評価し,筋骨格疾患の能動モニタリングのための手機能評価の質的結果を示した。
論文 参考訳(メタデータ) (2023-03-17T15:12:25Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Koopman pose predictions for temporally consistent human walking
estimations [11.016730029019522]
そこで我々は,下肢運動の非線形ダイナミクスを組み込んだクープマン理論に基づく新しい因子グラフ因子を提案する。
以上の結果から,本手法は骨格形状の外れ率を約1m削減し,自然歩行軌跡を最大10m以上保存できることが示唆された。
論文 参考訳(メタデータ) (2022-05-05T16:16:06Z) - Learning Dynamics via Graph Neural Networks for Human Pose Estimation
and Tracking [98.91894395941766]
ポーズ検出とは無関係なポーズダイナミクスを学習する新しいオンライン手法を提案する。
具体的には、空間的・時間的情報と視覚的情報の両方を明示的に考慮したグラフニューラルネットワーク(GNN)を通して、このダイナミクスの予測を導出する。
PoseTrack 2017とPoseTrack 2018データセットの実験では、提案手法が人間のポーズ推定とトラッキングタスクの両方において、技術の現状よりも優れた結果が得られることを示した。
論文 参考訳(メタデータ) (2021-06-07T16:36:50Z) - Appearance Learning for Image-based Motion Estimation in Tomography [60.980769164955454]
トモグラフィー画像では、取得した信号に擬似逆フォワードモデルを適用することにより、解剖学的構造を再構成する。
患者の動きは、復元過程における幾何学的アライメントを損なうため、運動アーティファクトが生じる。
本研究では,スキャン対象から独立して剛性運動の構造を認識する外観学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:49:11Z) - Detecting Parkinsonian Tremor from IMU Data Collected In-The-Wild using
Deep Multiple-Instance Learning [59.74684475991192]
パーキンソン病(英: Parkinson's Disease、PD)は、60歳以上の人口の約1%に影響を与える徐々に進化する神経学的疾患である。
PD症状には、震動、剛性、ブレイキネジアがある。
本稿では,スマートフォン端末から受信したIMU信号に基づいて,PDに関連するトレモラスなエピソードを自動的に識別する手法を提案する。
論文 参考訳(メタデータ) (2020-05-06T09:02:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。