論文の概要: Learning Force-Regulated Manipulation with a Low-Cost Tactile-Force-Controlled Gripper
- arxiv url: http://arxiv.org/abs/2602.10013v1
- Date: Tue, 10 Feb 2026 17:36:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.333941
- Title: Learning Force-Regulated Manipulation with a Low-Cost Tactile-Force-Controlled Gripper
- Title(参考訳): 低コスト触覚力制御グリッパーを用いた学習力制御マニピュレーション
- Authors: Xuhui Kang, Tongxuan Tian, Sung-Wook Lee, Binghao Huang, Yunzhu Li, Yen-Ling Kuo,
- Abstract要約: TF-グリッパー(TF-Gripper)は、触覚をフィードバックとして統合する低コストのパラレルジャウグリップである。
RETAFは、アームポーズ予測から握力制御を分離するフレームワークである。
TF-Gripper と RETAF は,実世界の5つのタスクにおいて,正確な力規制を必要とする。
- 参考スコア(独自算出の注目度): 18.40849472506029
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Successfully manipulating many everyday objects, such as potato chips, requires precise force regulation. Failure to modulate force can lead to task failure or irreversible damage to the objects. Humans can precisely achieve this by adapting force from tactile feedback, even within a short period of physical contact. We aim to give robots this capability. However, commercial grippers exhibit high cost or high minimum force, making them unsuitable for studying force-controlled policy learning with everyday force-sensitive objects. We introduce TF-Gripper, a low-cost (~$150) force-controlled parallel-jaw gripper that integrates tactile sensing as feedback. It has an effective force range of 0.45-45N and is compatible with different robot arms. Additionally, we designed a teleoperation device paired with TF-Gripper to record human-applied grasping forces. While standard low-frequency policies can be trained on this data, they struggle with the reactive, contact-dependent nature of force regulation. To overcome this, we propose RETAF (REactive Tactile Adaptation of Force), a framework that decouples grasping force control from arm pose prediction. RETAF regulates force at high frequency using wrist images and tactile feedback, while a base policy predicts end-effector pose and gripper open/close action. We evaluate TF-Gripper and RETAF across five real-world tasks requiring precise force regulation. Results show that compared to position control, direct force control significantly improves grasp stability and task performance. We further show that tactile feedback is essential for force regulation, and that RETAF consistently outperforms baselines and can be integrated with various base policies. We hope this work opens a path for scaling the learning of force-controlled policies in robotic manipulation. Project page: https://force-gripper.github.io .
- Abstract(参考訳): ジャガイモチップスのような日常的な物体をうまく操作するには、正確な力規制が必要である。
力の変調の失敗は、タスクの失敗や、オブジェクトへの不可逆的なダメージにつながる可能性がある。
人間は触覚フィードバックから力を加えることで、短時間の物理的接触でも、これを正確に達成することができる。
私たちはロボットにこの能力を与えることを目指しています。
しかし、商業用グリップは、高いコストまたは高い最小力を示しており、日常的な力に敏感な物体を用いて、力による政策学習を研究するのには適さない。
本稿では,触覚をフィードバックとして組み込んだ低コスト(約150ドル)のパラレルジャウグリップTF-Gripperを紹介する。
有効力範囲は 0.45-45N で、異なるロボットアームと互換性がある。
さらに、TF-Gripperと組み合わせた遠隔操作装置を設計し、人間に適応した把握力を記録した。
標準的な低周波ポリシーは、このデータに基づいて訓練することができるが、それらは、力規制の反応性と接触依存性の性質に苦慮している。
これを解決するために,腕ポーズ予測から握力制御を分離するRETAF(Reactive Tactile Adaptation of Force)を提案する。
RETAFは、手首画像と触覚フィードバックを使用して高頻度で力を調整する一方、ベースポリシーは、エンドエフェクタのポーズとグッパーの開閉動作を予測する。
TF-Gripper と RETAF は,実世界の5つのタスクにおいて,正確な力規制を必要とする。
その結果、位置制御と比較して、直接力制御はグリップ安定性とタスク性能を著しく向上させることがわかった。
さらに,触覚フィードバックは力の規制に不可欠であり,RETAFはベースラインを一貫して上回り,様々な基本方針と統合可能であることを示す。
この研究が、ロボット操作における力によるポリシーの学習を拡大する道を開くことを願っている。
プロジェクトページ: https://force-gripper.github.io 。
関連論文リスト
- ForceVLA2: Unleashing Hybrid Force-Position Control with Force Awareness for Contact-Rich Manipulation [75.39847750457626]
エンドツーエンドの視覚言語アクションフレームワークであるForceVLA2は、ハイブリッドな力配置制御と明示的な力覚を備えたロボットを装備する。
学習と評価を支援するために,5つの接触豊富なタスクに1,000の軌道を含むForceVLA2-Datasetを構築した。
実験により、ForceVLA2は接触リッチな操作における成功率と信頼性を大幅に改善することが示された。
論文 参考訳(メタデータ) (2026-03-16T12:03:58Z) - Multifingered force-aware control for humanoid robots [5.099311163246841]
マルチフィンガーハンドを用いたロボットプラットフォームにおける力認識制御と力分布について検討する。
我々は、胴体、腕、手首、指の動きに適応し、様々な質量分布や不安定な接触の物体との安定した接触を維持するために再分配力を設計する。
我々は5つのオブジェクトでバランスをとる作業においてフレームワークを検証し、成功率82.7%を達成し、さらに複数のオブジェクトシナリオで評価し、精度80%を達成した。
論文 参考訳(メタデータ) (2026-03-09T09:17:45Z) - Safe Whole-Body Loco-Manipulation via Combined Model and Learning-based Control [46.47619556874003]
そこで本研究では,マニピュレータアームのモデルベースアプタンス制御と足歩行の強化学習ポリシを組み合わせた全身制御を提案する。
アクセタンスコントローラは、物理的相互作用中に人間によって適用されるような外部レンチを、望ましいエンドエフェクタ速度にマッピングし、従順な振る舞いを可能にする。
6-DoFアームと手首に装着した6-DoF Force/Torqueセンサーを備えたUnitree Go2四足歩行ロボットを用いて,シミュレーションとハードウェアの両方におけるアプローチを検証する。
論文 参考訳(メタデータ) (2026-03-02T22:31:12Z) - UniForce: A Unified Latent Force Model for Robot Manipulation with Diverse Tactile Sensors [51.88112610411651]
そこで本研究では,多様な触覚センサにまたがる共用潜在力空間を学習する,新しい統合された触覚表現学習フレームワークを提案する。
UniForceは、逆ダイナミクス(image-to-force)とフォワードダイナミクス(force-to-image)を共同モデリングすることで、クロスセンサー領域シフトを低減する
高価な外部力/トルクセンサ(F/T)への依存を避けるため,静的平衡を利用して直接センサ・オブジェクト・センサ・インタラクションを介して力対効果データを収集する。
論文 参考訳(メタデータ) (2026-02-01T11:03:01Z) - Feel the Force: Contact-Driven Learning from Humans [52.36160086934298]
操作中のきめ細かい力の制御は、ロボット工学における中核的な課題である。
We present FeelTheForce, a robot learning system that model human tactile behavior to learn force-sensitive control。
提案手法は,5つの力覚的操作タスクで77%の成功率を達成した,スケーラブルな人間の監督において,堅牢な低レベル力制御を実現する。
論文 参考訳(メタデータ) (2025-06-02T17:57:52Z) - ForceVLA: Enhancing VLA Models with a Force-aware MoE for Contact-rich Manipulation [62.58034332427291]
ForceVLAは、新しいエンドツーエンド操作フレームワークである。
外部力センシングは、VLAシステム内の第一級のモダリティとして扱う。
論文 参考訳(メタデータ) (2025-05-28T09:24:25Z) - FACET: Force-Adaptive Control via Impedance Reference Tracking for Legged Robots [23.645867340878574]
インピーダンス参照追跡(FACET)を用いたemphForce-Adaptive Controlを提案する。
インピーダンス制御にインスパイアされた我々は、RLを使って制御ポリシーを訓練し、仮想的な質量ばね減衰系を模倣する。
シミュレーションでは、我々の四足歩行ロボットが大きな衝動に対して堅牢性を向上し、制御可能なコンプライアンスを示すことを示す。
論文 参考訳(メタデータ) (2025-05-11T07:23:26Z) - Learning Force Control for Legged Manipulation [18.894304288225385]
本稿では,力覚へのアクセスを必要とせず,直接力制御のためのRLポリシーを訓練する方法を提案する。
腕を持つ四足ロボットの全身制御プラットフォーム上で本手法を実証する。
足のマニピュレータに学習した全身力制御を初めて導入し、より汎用的で適応可能な脚ロボットの道を歩む。
論文 参考訳(メタデータ) (2024-05-02T15:53:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。