論文の概要: Characterization, Analytical Planning, and Hybrid Force Control for the Inspire RH56DFX Hand
- arxiv url: http://arxiv.org/abs/2603.08988v1
- Date: Mon, 09 Mar 2026 22:25:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:42.132319
- Title: Characterization, Analytical Planning, and Hybrid Force Control for the Inspire RH56DFX Hand
- Title(参考訳): インスパイアRH56DFXハンドの特性, 解析計画, ハイブリッド力制御
- Authors: Xuan Tan, William Xie, Nikolaus Correll,
- Abstract要約: 器用なロボットの手はますます普及しているが、科学機器としての使用が難しいものも多い。
我々はInspire RH56DFXに3つの改良を加えて、それをブラックボックスデバイスから研究ツールに変換する。
我々はこれらの部品を穴内挿入で検証し,成功率65%,手首力のみのベースライン10%を上回った。
- 参考スコア(独自算出の注目度): 2.574393697080417
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Commercially accessible dexterous robot hands are increasingly prevalent, but many remain difficult to use as scientific instruments. For example, the Inspire RH56DFX hand exposes only uncalibrated proprioceptive information and shows unreliable contact behavior at high speed (up to 1618% force limit overshoot). Furthermore, its underactuated, coupled finger linkages make antipodal grasps non-trivial. We contribute three improvements to the Inspire RH56DFX to transform it from a black-box device to a research tool: (1) hardware characterization (force calibration, latency, and overshoot), (2) a sim2real validated MuJoCo model for analytical width-to-grasp planning, and (3) a hybrid, closed-loop speed-force grasp controller. We validate these components on peg-in-hole insertion, achieving 65% success and outperforming a wrist-force-only baseline of 10% and on 300 grasps across 15 physically diverse objects, achieving 87% success and outperforming plan-free grasps and learned grasps. Our approach is modular, designed for compatibility with external object detectors and vision-language models for width & force estimation and high-level planning, and provides an interpretable and immediately deployable interface for dexterous manipulation with the Inspire RH56DFX hand, open-sourced at this website https://correlllab.github.io/rh56dfx.html.
- Abstract(参考訳): 市販のロボットハンドはますます普及しているが、科学機器としての使用は難しいものも多い。
例えば、Inspire RH56DFXハンドは、未分類の固有受容情報のみを露出し、高速で信頼性の低い接触動作を示す(最大1618%の力制限オーバーシュート)。
さらに、不活性で結合した指のリンクは、反足足の握りを非自明にする。
Inspire RH56DFXをブラックボックスデバイスから研究ツールに変換するための3つの改良点として,(1)ハードウェアのキャリブレーション(強制キャリブレーション,レイテンシ,オーバーシュート),(2)解析的幅とグレープ計画のためのsim2real検証MuJoCoモデル,(3)ハイブリッド・クローズドループ速度パワーグリップコントローラを提案する。
我々は,これらの部品を孔内挿入で検証し,成功率65%,手首力のみのベースラインで10%,物理的に多様性のある物体で300のグリップで87%,プランレスグリップで87%,学習知識で65%を達成した。
我々のアプローチはモジュラーであり、幅と力の推定と高レベルの計画のための外部オブジェクト検出器とビジョン言語モデルとの互換性を設計し、Inspire RH56DFXハンドによるデクサラス操作のための解釈可能かつ即時にデプロイ可能なインターフェースを、このWebサイト https://correlllab.github.io/rh56dfx.htmlでオープンソース化している。
関連論文リスト
- Exp-Force: Experience-Conditioned Pre-Grasp Force Selection with Vision-Language Models [0.9449650062296823]
一つのRGB画像から最小到達力を予測するフレームワークExp-Forceを提案する。
129のオブジェクトインスタンスでは、ExpForceは0.43NのベストケースMAEを達成し、ゼロショット推論のエラーを72%削減する。
これらの結果はExp-Forceが信頼性と一般化可能なプレグラス力選択を可能にすることを示す。
論文 参考訳(メタデータ) (2026-03-09T17:41:22Z) - From Power to Precision: Learning Fine-grained Dexterity for Multi-fingered Robotic Hands [20.469682777841207]
人間の握力は、大まかに2つのタイプに分類できる。
今日のマルチフィンガーロボットハンドは、パワーグリップに効果があるが、精度を必要とするタスクでは、パラレルグリップが広く採用されている。
マルチフィンガーハンドの制御設計とハードウェア設計を共同で最適化することで,このギャップを埋める。
論文 参考訳(メタデータ) (2025-11-17T18:56:50Z) - StrikeWatch: Wrist-worn Gait Recognition with Compact Time-series Models on Low-power FPGAs [10.946464973530214]
歩行パターンが良くなると、特に専門家のフィードバックなしに怪我につながることがある。
Wrist-wornウェアラブルは、実用的で非侵襲的な代替手段を提供する。
本稿では,デバイス上でリアルタイム歩行認識を行う小型手首輪システムであるStrikeWatchを紹介する。
論文 参考訳(メタデータ) (2025-10-14T20:28:31Z) - Cross-Embodiment Dexterous Hand Articulation Generation via Morphology-Aware Learning [82.63833405368159]
既存のエンドツーエンドメソッドでは、特定の手で大規模なデータセットをトレーニングする必要がある。
本稿では,固有グラフに基づくクロスボデーメントグリップ生成のためのエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-07T15:57:00Z) - Multi-Goal Dexterous Hand Manipulation using Probabilistic Model-based Reinforcement Learning [2.34860173297653]
本稿では,モデルに基づく強化学習を用いて,多目的手操作タスクの学習に挑戦する。
本稿では,高次元手動特性を記述するためのゴールコンディション型確率モデル予測制御(GC-PMPC)を提案する。
ケーブル駆動のDexterousハンドDexHand 021を12個のアクティブDOFと5個の触覚センサーで駆動し、約80分以内に3つのゴールポーズにキュービッドダイの操作を学習する。
論文 参考訳(メタデータ) (2025-04-30T12:44:38Z) - DexHandDiff: Interaction-aware Diffusion Planning for Adaptive Dexterous Manipulation [78.60543357822957]
高度なロボティクスにとって、接触に富んだ相互作用による有害な操作が不可欠である。
DexHandDiffは,適応的デキスタラス操作のための対話型拡散計画フレームワークである。
当社のフレームワークは, 目標適応度の高いタスクにおいて, 平均70.7%の成功率を実現し, コンタクトリッチな操作における堅牢性と柔軟性を強調した。
論文 参考訳(メタデータ) (2024-11-27T18:03:26Z) - HMD-EgoPose: Head-Mounted Display-Based Egocentric Marker-Less Tool and
Hand Pose Estimation for Augmented Surgical Guidance [0.0]
HMD-EgoPoseは、手動とオブジェクトのポーズ推定のための単発学習に基づくアプローチである。
マーカーレスハンドと手術器具のポーズトラッキングのためのベンチマークデータセット上で,最先端の性能を示す。
論文 参考訳(メタデータ) (2022-02-24T04:07:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。