論文の概要: Towards Biosignals-Free Autonomous Prosthetic Hand Control via Imitation Learning
- arxiv url: http://arxiv.org/abs/2506.08795v1
- Date: Tue, 10 Jun 2025 13:44:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:42.559735
- Title: Towards Biosignals-Free Autonomous Prosthetic Hand Control via Imitation Learning
- Title(参考訳): 模倣学習による生体信号のない自律義手制御を目指して
- Authors: Kaijie Shi, Wanglong Lu, Hanli Zhao, Vinicius Prado da Fonseca, Ting Zou, Xianta Jiang,
- Abstract要約: 本研究の目的は,義手のための完全自律制御システムの開発である。
物体の近くに手を置くことで、システムは適切な握力で把握動作を自動的に実行します。
把握されているオブジェクトを解放するために、オブジェクトをテーブルの近くに自然に配置すると、システムが自動的に手を開く。
- 参考スコア(独自算出の注目度): 1.072044330361478
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Limb loss affects millions globally, impairing physical function and reducing quality of life. Most traditional surface electromyographic (sEMG) and semi-autonomous methods require users to generate myoelectric signals for each control, imposing physically and mentally taxing demands. This study aims to develop a fully autonomous control system that enables a prosthetic hand to automatically grasp and release objects of various shapes using only a camera attached to the wrist. By placing the hand near an object, the system will automatically execute grasping actions with a proper grip force in response to the hand's movements and the environment. To release the object being grasped, just naturally place the object close to the table and the system will automatically open the hand. Such a system would provide individuals with limb loss with a very easy-to-use prosthetic control interface and greatly reduce mental effort while using. To achieve this goal, we developed a teleoperation system to collect human demonstration data for training the prosthetic hand control model using imitation learning, which mimics the prosthetic hand actions from human. Through training the model using only a few objects' data from one single participant, we have shown that the imitation learning algorithm can achieve high success rates, generalizing to more individuals and unseen objects with a variation of weights. The demonstrations are available at \href{https://sites.google.com/view/autonomous-prosthetic-hand}{https://sites.google.com/view/autonomous-prosthetic-hand}
- Abstract(参考訳): 肢の喪失は世界中の何百万もの人に影響を与え、身体機能に障害を与え、生活の質を低下させる。
従来の表面筋電図(sEMG)や半自律法では、ユーザーはそれぞれの制御のために筋電信号を生成する必要があり、身体的および精神的に課税要求を課す。
本研究の目的は、手首に取り付けられたカメラのみを用いて、義手が様々な形状の物体を自動的に把握・解放できる完全自律制御システムを開発することである。
対象物の近くに手を置くことにより、手の動きや環境に応じて、適切な握力で把握動作を自動で実行する。
把握されているオブジェクトを解放するために、オブジェクトをテーブルの近くに自然に配置すると、システムが自動的に手を開く。
このようなシステムは、非常に使い易い義肢制御インターフェースで、手足の喪失を個人に提供するとともに、使用中の精神的労力を大幅に削減する。
この目的を達成するために、人工手の動きを模倣した模倣学習を用いて、人工手制御モデルを訓練するための人間の実演データを集める遠隔操作システムを開発した。
模擬学習アルゴリズムは,1人の参加者から得られた少数のオブジェクトのデータのみを用いてモデルを訓練することにより,高い成功率を達成できることを示す。
デモは \href{https://sites.google.com/view/autonomous-prosthetic-hand}{https://sites.google.com/view/autonomous-prosthetic-hand} で公開されている。
関連論文リスト
- Feel the Force: Contact-Driven Learning from Humans [52.36160086934298]
操作中のきめ細かい力の制御は、ロボット工学における中核的な課題である。
We present FeelTheForce, a robot learning system that model human tactile behavior to learn force-sensitive control。
提案手法は,5つの力覚的操作タスクで77%の成功率を達成した,スケーラブルな人間の監督において,堅牢な低レベル力制御を実現する。
論文 参考訳(メタデータ) (2025-06-02T17:57:52Z) - Imitation Learning for Adaptive Control of a Virtual Soft Exoglove [3.3030080038744947]
本研究では,特定の筋力障害に対処し,手動操作作業に対する補償を提供するウェアラブルロボットコントローラを提案する。
人間の把握タスクを実行する同じ被験者のビデオデータは、実演から学習して操作モデルを訓練するために使用される。
この操作モデルはその後、オブジェクト固有のインタラクションタスクを実行するために微調整される。
筋骨格操作モデルにおける筋力は、後に仮想ウェアラブルロボットグローブの作動によって補償される神経運動障害をシミュレートするために弱められる。
論文 参考訳(メタデータ) (2025-05-14T03:09:21Z) - AnyDexGrasp: General Dexterous Grasping for Different Hands with Human-level Learning Efficiency [49.868970174484204]
我々は,最小限のデータを用いてきめ細やかな把握を学習するための効率的なアプローチを提案する。
提案手法は,40個の訓練対象に対して数百のグリップ試行を行うだけで,人間レベルの学習効率で高い性能を達成できる。
この方法は、ヒューマノイドロボット、人工装具、その他頑丈で汎用的なロボット操作を必要とする領域に対する有望な応用を実証する。
論文 参考訳(メタデータ) (2025-02-23T03:26:06Z) - Learning to Transfer Human Hand Skills for Robot Manipulations [12.797862020095856]
本稿では,人間の手の動きのデモから,ロボットに巧妙な操作課題を教える方法を提案する。
本手法では,人間の手の動き,ロボットの手の動き,物体の動きを3Dでマッピングする関節運動多様体を学習し,ある動きを他者から推測する。
論文 参考訳(メタデータ) (2025-01-07T22:33:47Z) - AI-Powered Camera and Sensors for the Rehabilitation Hand Exoskeleton [0.393259574660092]
本研究は,障害者の手の動きを支援する視覚機能付きリハビリテーション・ハンド・エキソスケルトンを提案する。
設計目標は、トレーニングを必要とせずにシンプルなインターフェイスを利用できるツールを作ることだった。
論文 参考訳(メタデータ) (2024-08-09T04:47:37Z) - Naturalistic Robot Arm Trajectory Generation via Representation Learning [4.7682079066346565]
家庭環境におけるマニピュレータロボットの統合は、より予測可能な人間のようなロボットの動きの必要性を示唆している。
自然主義的な運動軌跡を生成する方法の1つは、人間のデモ隊の模倣によるものである。
本稿では,自己回帰型ニューラルネットワークを用いた自己指導型模倣学習法について検討する。
論文 参考訳(メタデータ) (2023-09-14T09:26:03Z) - GRIP: Generating Interaction Poses Using Spatial Cues and Latent Consistency [57.9920824261925]
手は器用で多用途なマニピュレータであり、人間が物体や環境とどのように相互作用するかの中心である。
現実的な手オブジェクトの相互作用をモデル化することは、コンピュータグラフィックス、コンピュータビジョン、混合現実の応用において重要である。
GRIPは、体と物体の3次元運動を入力として取り、物体の相互作用の前、中、後の両方の両手の現実的な動きを合成する学習ベースの手法である。
論文 参考訳(メタデータ) (2023-08-22T17:59:51Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - In-Hand Object Rotation via Rapid Motor Adaptation [59.59946962428837]
指先のみを用いて手動物体の回転を実現するための簡単な適応制御器の設計と学習方法を示す。
コントローラは、円筒形物体のみのシミュレーションで完全に訓練されている。
実際のロボットの手に直接展開して、さまざまな大きさ、形状、重量をz軸上で回転させることができる。
論文 参考訳(メタデータ) (2022-10-10T17:58:45Z) - From One Hand to Multiple Hands: Imitation Learning for Dexterous
Manipulation from Single-Camera Teleoperation [26.738893736520364]
我々は,iPadとコンピュータのみで3Dデモを効率的に収集する,新しい単一カメラ遠隔操作システムを提案する。
我々は,操作者の手の構造と形状が同じであるマニピュレータである物理シミュレータにおいて,各ユーザ向けにカスタマイズされたロボットハンドを構築する。
データを用いた模倣学習では、複数の複雑な操作タスクでベースラインを大幅に改善する。
論文 参考訳(メタデータ) (2022-04-26T17:59:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。