論文の概要: Bring Your Own Grasp Generator: Leveraging Robot Grasp Generation for Prosthetic Grasping
- arxiv url: http://arxiv.org/abs/2503.00466v1
- Date: Sat, 01 Mar 2025 12:35:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:13:56.127850
- Title: Bring Your Own Grasp Generator: Leveraging Robot Grasp Generation for Prosthetic Grasping
- Title(参考訳): 自作のグラスジェネレータ:義足用グラスジェネレータ
- Authors: Giuseppe Stracquadanio, Federico Vasile, Elisa Maiettini, Nicolò Boccardo, Lorenzo Natale,
- Abstract要約: 本稿では,共有自律性原理に従う新しい義手把握システムを提案する。
本システムでは,ユーザの指示に基づいてアプローチ・ツー・グリップ動作を開始し,義手のDoFを自動的に設定する。
我々はハンヌ補綴の手にシステムを展開し、実効性のある被験者とアンプでテストし、その有効性を検証する。
- 参考スコア(独自算出の注目度): 4.476245767508223
- License:
- Abstract: One of the most important research challenges in upper-limb prosthetics is enhancing the user-prosthesis communication to closely resemble the experience of a natural limb. As prosthetic devices become more complex, users often struggle to control the additional degrees of freedom. In this context, leveraging shared-autonomy principles can significantly improve the usability of these systems. In this paper, we present a novel eye-in-hand prosthetic grasping system that follows these principles. Our system initiates the approach-to-grasp action based on user's command and automatically configures the DoFs of a prosthetic hand. First, it reconstructs the 3D geometry of the target object without the need of a depth camera. Then, it tracks the hand motion during the approach-to-grasp action and finally selects a candidate grasp configuration according to user's intentions. We deploy our system on the Hannes prosthetic hand and test it on able-bodied subjects and amputees to validate its effectiveness. We compare it with a multi-DoF prosthetic control baseline and find that our method enables faster grasps, while simplifying the user experience. Code and demo videos are available online at https://hsp-iit.github.io/byogg/.
- Abstract(参考訳): 上肢義肢における最も重要な研究課題の1つは、自然肢の経験によく似たように、ユーザと義肢のコミュニケーションを強化することである。
人工装具がより複雑になるにつれて、ユーザーは追加の自由度をコントロールするのに苦労する。
この文脈では、共有自律性原則を活用することで、これらのシステムのユーザビリティが大幅に向上する。
本稿では,これらの原則に従う新しい義手把握システムを提案する。
本システムでは,ユーザの指示に基づいてアプローチ・ツー・グリップ動作を開始し,義手のDoFを自動的に設定する。
まず、深度カメラを必要とせずに、対象物の3次元形状を再構成する。
そして、アプローチ・ツー・グレープ動作中の手の動きを追跡し、最終的にユーザの意図に応じて候補把握構成を選択する。
我々はハンヌ補綴の手にシステムを展開し、実効性のある被験者とアンプでテストし、その有効性を検証する。
マルチDoF義足のベースラインと比較したところ,本手法はユーザエクスペリエンスをシンプルにしながら,より高速な把握を可能にしていることがわかった。
コードとデモビデオはhttps://hsp-iit.github.io/byogg/.comで公開されている。
関連論文リスト
- HOMIE: Humanoid Loco-Manipulation with Isomorphic Exoskeleton Cockpit [52.12750762494588]
現在のヒューマノイド遠隔操作システムは、信頼性の高い低レベル制御ポリシーを欠いているか、または正確な全身制御コマンドを取得するのに苦労している。
本稿では,ヒューマノイドのロコ操作ポリシと低コストなエクソスケルトン型ハードウェアシステムを統合した,新しいヒューマノイド遠隔操作コックピットを提案する。
論文 参考訳(メタデータ) (2025-02-18T16:33:38Z) - Hand-Object Interaction Pretraining from Videos [77.92637809322231]
我々は,3次元ハンドオブジェクトインタラクショントラジェクトリから,一般的なロボット操作を学習する。
人間の手と操作された物体を3D空間で共有し、人間の動きをロボットの動きと共有する。
我々は、このポリシーを、強化学習(RL)と行動クローニング(BC)の両方で微調整することで、下流タスクへのサンプル効率の適応を可能にし、従来のアプローチと比較して堅牢性と一般化性を同時に改善できることを実証的に実証した。
論文 参考訳(メタデータ) (2024-09-12T17:59:07Z) - Privileged Sensing Scaffolds Reinforcement Learning [28.100745092661587]
人工エージェントの訓練のための官能的足場設定について検討する。
スカフフォルダー(Scaffolder)は、批評家の特権感覚を効果的に活用する強化学習手法である。
エージェントは、ブラインドハードルを訓練するために特権カメラセンサーを使用しなければなりません。
論文 参考訳(メタデータ) (2024-05-23T17:57:14Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Semi-autonomous Prosthesis Control Using Minimal Depth Information and
Vibrotactile Feedback [2.0051855303186046]
最小限のデータを用いて対象オブジェクトの形状を再構成する新しい手法を提案する。
4つのコンカレントレーザースキャナラインは、オブジェクト断面の部分的な輪郭を提供する。
単純な幾何学は球形、円筒形、立方体の次元と向きを再構成するために用いられる。
論文 参考訳(メタデータ) (2022-10-02T14:51:58Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Grasp Pre-shape Selection by Synthetic Training: Eye-in-hand Shared
Control on the Hannes Prosthesis [6.517935794312337]
RGB 配列から手形前分類を行うための目印学習方式を提案する。
我々は、人間の腕の軌跡のモデルを用いて、眼球設定の特異性に取り組む。
論文 参考訳(メタデータ) (2022-03-18T09:16:48Z) - Towards Predicting Fine Finger Motions from Ultrasound Images via
Kinematic Representation [12.49914980193329]
米国の画像から特定指のアクティベーションを識別する推論問題について検討した。
本研究は,ロボット補綴器のアームアンプへの採用率向上に向けた重要なステップであると考えている。
論文 参考訳(メタデータ) (2022-02-10T18:05:09Z) - ASHA: Assistive Teleoperation via Human-in-the-Loop Reinforcement
Learning [91.58711082348293]
オンラインユーザからのフィードバックからシステムのパフォーマンスに関する強化学習は、この問題に対する自然な解決策である。
このアプローチでは、特にフィードバックが不足している場合には、ループ内の大量のトレーニングデータが必要になる傾向があります。
疎いユーザフィードバックから効率的に学習する階層型ソリューションを提案する。
論文 参考訳(メタデータ) (2022-02-05T02:01:19Z) - Design of an Affordable Prosthetic Arm Equipped with Deep Learning
Vision-Based Manipulation [0.0]
この論文は、手頃な価格で簡単にアクセス可能な新しい義肢の設計プロセスの概要を概説する。
この3dプリント義手は、深度カメラとクローズドループのオフポリシー深層学習アルゴリズムを備えており、対象物に対する形状把握を支援する。
未確認のオブジェクトに対して78%の成功率を実現し、操作タスクのために複数のオブジェクトをまたいだ一般化を実現しました。
論文 参考訳(メタデータ) (2021-03-03T00:35:06Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。