論文の概要: Multifingered force-aware control for humanoid robots
- arxiv url: http://arxiv.org/abs/2603.08142v1
- Date: Mon, 09 Mar 2026 09:17:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:42.094574
- Title: Multifingered force-aware control for humanoid robots
- Title(参考訳): ヒューマノイドロボットの多指力認識制御
- Authors: Pasquale Marra, Gabriele M. Caddeo, Ugo Pattacini, Lorenzo Natale,
- Abstract要約: マルチフィンガーハンドを用いたロボットプラットフォームにおける力認識制御と力分布について検討する。
我々は、胴体、腕、手首、指の動きに適応し、様々な質量分布や不安定な接触の物体との安定した接触を維持するために再分配力を設計する。
我々は5つのオブジェクトでバランスをとる作業においてフレームワークを検証し、成功率82.7%を達成し、さらに複数のオブジェクトシナリオで評価し、精度80%を達成した。
- 参考スコア(独自算出の注目度): 5.099311163246841
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we address force-aware control and force distribution in robotic platforms with multi-fingered hands. Given a target goal and force estimates from tactile sensors, we design a controller that adapts the motion of the torso, arm, wrist, and fingers, redistributing forces to maintain stable contact with objects of varying mass distribution or unstable contacts. To estimate forces, we collect a dataset of tactile signals and ground-truth force measurements using five Xela magnetic sensors interacting with indenters, and train force estimators. We then introduce a model-based control scheme that minimizes the distance between the Center of Pressure (CoP) and the centroid of the fingertips contact polygon. Since our method relies on estimated forces rather than raw tactile signals, it has the potential to be applied to any sensor capable of force estimation. We validate our framework on a balancing task with five objects, achieving a $82.7\%$ success rate, and further evaluate it in multi-object scenarios, achieving $80\%$ accuracy. Code and data can be found here https://github.com/hsp-iit/multifingered-force-aware-control.
- Abstract(参考訳): 本稿では,多指ハンドを用いたロボットプラットフォームにおける力認識制御と力分布について述べる。
触覚センサの目標と力の推定値から、胴体、腕、手首、指の動きに適応するコントローラを設計し、様々な質量分布や不安定な接触の物体との安定した接触を維持するために再分配する。
インデンタと相互作用する5つのXela磁気センサと列車力推定器を用いて,触覚信号のデータセットと接地力測定を行った。
次に,圧力中心(CoP)と指先接触多角形(指先接触多角形)との距離を最小化するモデルに基づく制御手法を提案する。
本手法は, 生の触覚信号よりも推定力に頼っているため, 力推定が可能な任意のセンサに適用できる可能性がある。
我々は,5つのオブジェクトでバランスをとる作業においてフレームワークを検証し,成功率82.7 %を達成し,さらに多目的シナリオで評価し,80 %を精度で達成した。
コードとデータはhttps://github.com/hsp-iit/multifingered-force-aware-controlにある。
関連論文リスト
- OmniVTA: Visuo-Tactile World Modeling for Contact-Rich Robotic Manipulation [60.609604885961716]
textbfOmniViTacは,16ドルのタスクと100ドル以上のオブジェクトからなる21,000ドル以上のトラジェクトリからなる大規模ビズオタクティルアクションデータセットである。
我々は4つの密結合モジュールを統合する世界モデルベースのビジュオ触覚操作フレームワークである textbf OmniVTA を提案する。
論文 参考訳(メタデータ) (2026-03-19T17:52:42Z) - FAME: Force-Adaptive RL for Expanding the Manipulation Envelope of a Full-Scale Humanoid [41.604822515681256]
外力下でのバランスを維持することは、ヒューマノイドのバイマニュアル操作にとって重要である。
力適応型強化学習フレームワークである textbfFAME を提案する。
論文 参考訳(メタデータ) (2026-03-09T21:49:00Z) - ULTRA: Unified Multimodal Control for Autonomous Humanoid Whole-Body Loco-Manipulation [55.467742403416175]
本稿では,大規模モーションキャプチャをヒューマノイドに変換する物理駆動型ニューラルネットワークを提案する。
我々は高密度参照とスパースタスク仕様の両方をサポートする統合マルチモーダルコントローラを学習する。
その結果,ULTRAは自我中心の知覚から,自律的,目標条件付き全体ロコ操作に一般化することが示された。
論文 参考訳(メタデータ) (2026-03-03T18:59:29Z) - Feel the Force: Contact-Driven Learning from Humans [52.36160086934298]
操作中のきめ細かい力の制御は、ロボット工学における中核的な課題である。
We present FeelTheForce, a robot learning system that model human tactile behavior to learn force-sensitive control。
提案手法は,5つの力覚的操作タスクで77%の成功率を達成した,スケーラブルな人間の監督において,堅牢な低レベル力制御を実現する。
論文 参考訳(メタデータ) (2025-06-02T17:57:52Z) - FeelAnyForce: Estimating Contact Force Feedback from Tactile Sensation for Vision-Based Tactile Sensors [18.88211706267447]
視覚に基づく触覚センサを用いて3次元接触力を推定する問題に対処する。
我々のゴールは、様々な視覚ベースの触覚センサーにまたがって、あらゆる物体の接触力(最大15N)を推定することである。
論文 参考訳(メタデータ) (2024-10-02T21:28:19Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Fine Robotic Manipulation without Force/Torque Sensor [9.908082209033612]
典型的な6軸力/トルクセンサ(F/T)がロボットの手首と端エフェクターの間に装着され、環境がロボットに与える力(外部レンチ)を測定する。
典型的な6軸F/Tセンサーは高い精度で測定できるが、ドリフトや外部の衝撃に対して高価で脆弱である。
ロボットの内部信号のみを用いて外部レンチを推定する既存の手法は、スコープに限られている。
我々はニューラルネットワークに基づく手法を提案し、トレーニングデータ構造に特に注意を払うことで、正確に見積もることができると論じる。
論文 参考訳(メタデータ) (2023-01-31T05:06:04Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。