論文の概要: HannesImitation: Grasping with the Hannes Prosthetic Hand via Imitation Learning
- arxiv url: http://arxiv.org/abs/2508.00491v1
- Date: Fri, 01 Aug 2025 10:09:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.830903
- Title: HannesImitation: Grasping with the Hannes Prosthetic Hand via Imitation Learning
- Title(参考訳): Hannes Imitation:Imitation LearningによるHannes Prosthetic Handによるグラッピング
- Authors: Carlo Alessi, Federico Vasile, Federico Ceola, Giulia Pasquale, Nicolò Boccardo, Lorenzo Natale,
- Abstract要約: ロボット工学において、模倣学習は、把握と複雑な操作タスクを学ぶための有望なアプローチとして現れてきた。
本稿では,ハンネス義手を制御する模擬学習法であるHannesImitationPolicyを提案する。
我々はそのようなデータを利用して単一の拡散政策を訓練し、それを義手に展開し、手首の向きを予測し、手首をつかむために手首を閉じる。
- 参考スコア(独自算出の注目度): 5.122722600158078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in control of prosthetic hands have focused on increasing autonomy through the use of cameras and other sensory inputs. These systems aim to reduce the cognitive load on the user by automatically controlling certain degrees of freedom. In robotics, imitation learning has emerged as a promising approach for learning grasping and complex manipulation tasks while simplifying data collection. Its application to the control of prosthetic hands remains, however, largely unexplored. Bridging this gap could enhance dexterity restoration and enable prosthetic devices to operate in more unconstrained scenarios, where tasks are learned from demonstrations rather than relying on manually annotated sequences. To this end, we present HannesImitationPolicy, an imitation learning-based method to control the Hannes prosthetic hand, enabling object grasping in unstructured environments. Moreover, we introduce the HannesImitationDataset comprising grasping demonstrations in table, shelf, and human-to-prosthesis handover scenarios. We leverage such data to train a single diffusion policy and deploy it on the prosthetic hand to predict the wrist orientation and hand closure for grasping. Experimental evaluation demonstrates successful grasps across diverse objects and conditions. Finally, we show that the policy outperforms a segmentation-based visual servo controller in unstructured scenarios. Additional material is provided on our project page: https://hsp-iit.github.io/HannesImitation
- Abstract(参考訳): 近年の義手制御の進歩は、カメラやその他の感覚入力を用いて自律性を高めることに焦点が当てられている。
これらのシステムは,一定の自由度を自動的に制御することにより,ユーザの認知負荷を軽減することを目的としている。
ロボット工学において、模倣学習は、データ収集を簡素化しながら、把握と複雑な操作タスクを学習するための有望なアプローチとして現れてきた。
しかし、義手制御へのその応用は、ほとんど未解明のままである。
このギャップを埋めることで、デキスタリティの回復が促進され、手動で注釈付けされたシーケンスに頼るのではなく、デモからタスクが学習される、より制約のないシナリオで義肢の操作が可能になる。
そこで本研究では,ハンネス義手を制御する模倣学習法であるHannesImitationPolicyを提案する。
さらに、テーブル、棚、人工装具のハンドオーバシナリオを把握したHannesImitationDatasetを導入する。
我々はそのようなデータを利用して単一の拡散政策を訓練し、それを義手に展開し、手首の向きを予測し、手首をつかむために手首を閉じる。
実験による評価は、様々な物体や条件の把握に成功したことを示す。
最後に,非構造化シナリオにおいてセグメンテーションに基づくビジュアルサーボコントローラよりも優れることを示す。
追加の資料はプロジェクトのページにある。 https://hsp-iit.github.io/HannesImitation
関連論文リスト
- Touch in the Wild: Learning Fine-Grained Manipulation with a Portable Visuo-Tactile Gripper [7.618517580705364]
触覚センサーを内蔵した携帯型軽量グリップについて述べる。
視覚信号と触覚信号を統合するクロスモーダル表現学習フレームワークを提案する。
試験管挿入や管状流体移動などの細粒度タスクに対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2025-07-20T17:53:59Z) - Towards Biosignals-Free Autonomous Prosthetic Hand Control via Imitation Learning [1.072044330361478]
本研究の目的は,義手のための完全自律制御システムの開発である。
物体の近くに手を置くことで、システムは適切な握力で把握動作を自動的に実行します。
把握されているオブジェクトを解放するために、オブジェクトをテーブルの近くに自然に配置すると、システムが自動的に手を開く。
論文 参考訳(メタデータ) (2025-06-10T13:44:08Z) - Bring Your Own Grasp Generator: Leveraging Robot Grasp Generation for Prosthetic Grasping [4.476245767508223]
本稿では,共有自律性原理に従う新しい義手把握システムを提案する。
本システムでは,ユーザの指示に基づいてアプローチ・ツー・グリップ動作を開始し,義手のDoFを自動的に設定する。
我々はハンヌ補綴の手にシステムを展開し、実効性のある被験者とアンプでテストし、その有効性を検証する。
論文 参考訳(メタデータ) (2025-03-01T12:35:05Z) - Continuous Wrist Control on the Hannes Prosthesis: a Vision-based Shared Autonomy Framework [5.428117915362002]
義肢をつかむためのほとんどの制御技術は、器用な指の制御に焦点をあてるが、手首の動きを見渡す。
これにより、肘、肩、腰で補償運動を行い、手首をつかむように適応させる。
本稿では,共有自律フレームワークにおけるユーザと自動システムの協調を利用したコンピュータビジョンベースシステムを提案する。
当社のパイプラインでは,人工手首をシームレスに制御して対象物を追尾し,最終的にユーザの意図に応じて把握するように調整しています。
論文 参考訳(メタデータ) (2025-02-24T15:48:25Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Context-Aware Sequence Alignment using 4D Skeletal Augmentation [67.05537307224525]
コンピュータビジョン、ロボティクス、混合現実の多くの応用において、ビデオにおける人間の行動の微粒化の時間的アライメントが重要である。
本稿では,アクションのシーケンスを整列するコンテキスト認識型自己教師型学習アーキテクチャを提案する。
特に、CASAは、人間の行動の空間的・時間的文脈を組み込むために、自己注意と相互注意のメカニズムを採用している。
論文 参考訳(メタデータ) (2022-04-26T10:59:29Z) - Grasp Pre-shape Selection by Synthetic Training: Eye-in-hand Shared
Control on the Hannes Prosthesis [6.517935794312337]
RGB 配列から手形前分類を行うための目印学習方式を提案する。
我々は、人間の腕の軌跡のモデルを用いて、眼球設定の特異性に取り組む。
論文 参考訳(メタデータ) (2022-03-18T09:16:48Z) - Generalization Through Hand-Eye Coordination: An Action Space for
Learning Spatially-Invariant Visuomotor Control [67.23580984118479]
模倣学習(il)は、オフラインデモデータから視覚能力を学ぶための効果的なフレームワークである。
手目行動ネットワーク(HAN)は、人間の遠隔操作による実証から学習することにより、人間の手目協調行動を推定することができる。
論文 参考訳(メタデータ) (2021-02-28T01:49:13Z) - Human-in-the-Loop Imitation Learning using Remote Teleoperation [72.2847988686463]
6-DoF操作設定に合わせたデータ収集システムを構築します。
システムによって収集された新しいデータに基づいて,ポリシーを反復的にトレーニングするアルゴリズムを開発した。
介入型システムで収集したデータに基づいて訓練されたエージェントと、非介入型デモ参加者が収集した同等数のサンプルで訓練されたアルゴリズムを上回るエージェントを実証する。
論文 参考訳(メタデータ) (2020-12-12T05:30:35Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。