論文の概要: Rigidity-Based Multi-Finger Coordination for Precise In-Hand Manipulation of Force-Sensitive Objects
- arxiv url: http://arxiv.org/abs/2602.14104v1
- Date: Sun, 15 Feb 2026 11:40:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.474181
- Title: Rigidity-Based Multi-Finger Coordination for Precise In-Hand Manipulation of Force-Sensitive Objects
- Title(参考訳): 力覚的物体の精密手動操作のための剛性に基づくマルチフィンガーコーディネーション
- Authors: Xinan Rong, Changhuang Wan, Aochen He, Xiaolong Li, Gangshan Jing,
- Abstract要約: マルチフィンガーハンドは指先接触のみに依存しており、プルフォースを適用できない。
力覚的物体の高精度な操作を可能にする多指協調のための二重層フレームワークを提案する。
我々は、このフレームワークをカスタムなデクスタラスな手で検証し、脆弱なオブジェクトを操作できることを実証した。
- 参考スコア(独自算出の注目度): 5.313029497667778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Precise in-hand manipulation of force-sensitive objects typically requires judicious coordinated force planning as well as accurate contact force feedback and control. Unlike multi-arm platforms with gripper end effectors, multi-fingered hands rely solely on fingertip point contacts and are not able to apply pull forces, therefore poses a more challenging problem. Furthermore, calibrated torque sensors are lacking in most commercial dexterous hands, adding to the difficulty. To address these challenges, we propose a dual-layer framework for multi-finger coordination, enabling high-precision manipulation of force-sensitive objects through joint control without tactile feedback. This approach solves coordinated contact force planning by incorporating graph rigidity and force closure constraints. By employing a force-to-position mapping, the planned force trajectory is converted to a joint trajectory. We validate the framework on a custom dexterous hand, demonstrating the capability to manipulate fragile objects-including a soft yarn, a plastic cup, and a raw egg-with high precision and safety.
- Abstract(参考訳): 力に敏感な物体の精密な手動操作は、通常、正確な接触力のフィードバックと制御と同様に、司法的な協調力計画を必要とする。
グリップエンドエフェクタを持つマルチアームプラットフォームとは異なり、マルチフィンガーハンドは指先接触のみに依存しており、プルフォースを適用できないため、より困難な問題を引き起こす。
さらに、ほとんどの商業用手には校正トルクセンサが欠けており、難易度が増している。
これらの課題に対処するために,触覚フィードバックを伴わずに関節制御による力覚的物体の高精度操作を可能にする多指協調のための二重層フレームワークを提案する。
この手法は, グラフ剛性と強制閉鎖制約を組み込むことにより, 協調的な接触力計画を解く。
力対位置マッピングを用いることで、計画された力軌跡を関節軌跡に変換する。
本研究では, 柔らかい糸, プラスチックカップ, 生卵などの脆い物体を, 高精度で操作できることを実証した。
関連論文リスト
- ForceVLA2: Unleashing Hybrid Force-Position Control with Force Awareness for Contact-Rich Manipulation [75.39847750457626]
エンドツーエンドの視覚言語アクションフレームワークであるForceVLA2は、ハイブリッドな力配置制御と明示的な力覚を備えたロボットを装備する。
学習と評価を支援するために,5つの接触豊富なタスクに1,000の軌道を含むForceVLA2-Datasetを構築した。
実験により、ForceVLA2は接触リッチな操作における成功率と信頼性を大幅に改善することが示された。
論文 参考訳(メタデータ) (2026-03-16T12:03:58Z) - TacDexGrasp: Compliant and Robust Dexterous Grasping with Tactile Feedback [14.132084492788122]
この研究は、2つの重要な問題に対処する: 複数の接触に力を分散して物体の重みに対処し、物体の中心から遠ざかるときに重力トルクによって引き起こされる回転スリップを防ぐ。
触覚フィードバックとSOCP(Second-Order Cone Programming)ベースのコントローラを用いて,トルクモデリングやスリップ検出を行うことなく,これらの課題に対処する。
論文 参考訳(メタデータ) (2026-03-07T05:15:27Z) - Contact-Grounded Policy: Dexterous Visuotactile Policy with Generative Contact Grounding [5.936373185672394]
Contact-Grounded Policy (CGP) は、実際のロボット状態と触覚フィードバックの複合軌跡を予測することで、多点接触を根拠とするビゾタクティルポリシーである。
CGPは, (i) 圧縮潜在空間における将来のロボットの状態と触覚フィードバックを予測する条件拡散モデル, (ii) 学習された接触一貫性マッピングの2つのコンポーネントから構成される。
指先触覚センサDgit360を用いた4本指のAllegro V5手と,高密度全手触覚アレイを用いた5本指のTesollo DG-5F手を用いてCGPを評価した。
論文 参考訳(メタデータ) (2026-03-05T21:22:49Z) - TEGA: A Tactile-Enhanced Grasping Assistant for Assistive Robotics via Sensor Fusion and Closed-Loop Haptic Feedback [1.3861223044153617]
触覚強化把握アシスタント(TEGA)について紹介する。
クローズドループアシスト遠隔操作フレームワークは、リアルタイムなビブロタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタ
ウェアラブルの触覚ベストは、リアルタイムの触覚フィードバックを提供する。
論文 参考訳(メタデータ) (2026-03-05T04:12:55Z) - UniForce: A Unified Latent Force Model for Robot Manipulation with Diverse Tactile Sensors [51.88112610411651]
そこで本研究では,多様な触覚センサにまたがる共用潜在力空間を学習する,新しい統合された触覚表現学習フレームワークを提案する。
UniForceは、逆ダイナミクス(image-to-force)とフォワードダイナミクス(force-to-image)を共同モデリングすることで、クロスセンサー領域シフトを低減する
高価な外部力/トルクセンサ(F/T)への依存を避けるため,静的平衡を利用して直接センサ・オブジェクト・センサ・インタラクションを介して力対効果データを収集する。
論文 参考訳(メタデータ) (2026-02-01T11:03:01Z) - TouchGuide: Inference-Time Steering of Visuomotor Policies via Touch Guidance [53.35296919674763]
TouchGuideは、低次元のアクション空間内でモダリティを融合させる、クロス政治的なビズオ触覚融合パラダイムである。
TouchGuideは、事前訓練された拡散またはフローマッチングビズモータポリシーをガイドする2つの段階で動作する。
高品質で費用対効果の高いデータによるTouchGuideトレーニングを容易にするために,データ収集システムであるTacUMIを導入する。
論文 参考訳(メタデータ) (2026-01-28T04:22:47Z) - ForceGrip: Reference-Free Curriculum Learning for Realistic Grip Force Control in VR Hand Manipulation [0.10995326465245926]
本稿では,現実的な手操作動作を合成する深層学習エージェントであるForceGripを紹介する。
我々は、指の位置決め、意図適応、動的安定化を含む3段階のカリキュラム学習フレームワークを採用する。
以上の結果から,ForceGripの出力制御性と信頼性は最先端の手法に比べて優れていた。
論文 参考訳(メタデータ) (2025-03-11T05:39:07Z) - Twisting Lids Off with Two Hands [82.21668778600414]
シミュレーションで訓練された政策を実世界へ効果的かつ効率的に移行する方法を示す。
具体的には,ボトル状物体の蓋を両手でねじる問題について考察する。
これは、バイマガル・マルチフィンガーハンドでそのような機能を実現する最初のsim-to-real RLシステムである。
論文 参考訳(メタデータ) (2024-03-04T18:59:30Z) - Deformer: Dynamic Fusion Transformer for Robust Hand Pose Estimation [59.3035531612715]
既存の方法では、手のこもりが強かったり、ぼやけたりすると、手のポーズが難しい場合が多い。
ビデオでは、手の動きによって、片方のフレームに隠されたり、ぼやけたりして、手のさまざまな部分を観察することができる。
画像内の手の部分間の関係を暗黙的に推論するフレームワークであるDeformerを提案する。
論文 参考訳(メタデータ) (2023-03-09T02:24:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。