論文の概要: Tracing Energy Flow: Learning Tactile-based Grasping Force Control to Prevent Slippage in Dynamic Object Interaction
- arxiv url: http://arxiv.org/abs/2512.21043v1
- Date: Wed, 24 Dec 2025 08:19:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.501209
- Title: Tracing Energy Flow: Learning Tactile-based Grasping Force Control to Prevent Slippage in Dynamic Object Interaction
- Title(参考訳): 追従エネルギーの流れ:動的物体相互作用におけるすべり防止のための触覚ベースグラスピング力制御の学習
- Authors: Cheng-Yu Kuo, Hirofumi Shin, Takamitsu Matsubara,
- Abstract要約: 動的物体相互作用におけるすべりの低減のための把持力の調節は、ロボット操作の基本的な課題である。
本稿では,物体を仮想エネルギーコンテナとしてモデル化する物理情報を用いたエネルギー抽象化を提案する。
シミュレーションとハードウェアの両方の実験により,スクラッチから力の制御を数分で学習できることが実証された。
- 参考スコア(独自算出の注目度): 4.103372358189422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regulating grasping force to reduce slippage during dynamic object interaction remains a fundamental challenge in robotic manipulation, especially when objects are manipulated by multiple rolling contacts, have unknown properties (such as mass or surface conditions), and when external sensing is unreliable. In contrast, humans can quickly regulate grasping force by touch, even without visual cues. Inspired by this ability, we aim to enable robotic hands to rapidly explore objects and learn tactile-driven grasping force control under motion and limited sensing. We propose a physics-informed energy abstraction that models the object as a virtual energy container. The inconsistency between the fingers' applied power and the object's retained energy provides a physically grounded signal for inferring slip-aware stability. Building on this abstraction, we employ model-based learning and planning to efficiently model energy dynamics from tactile sensing and perform real-time grasping force optimization. Experiments in both simulation and hardware demonstrate that our method can learn grasping force control from scratch within minutes, effectively reduce slippage, and extend grasp duration across diverse motion-object pairs, all without relying on external sensing or prior object knowledge.
- Abstract(参考訳): 動的物体相互作用におけるすべりの低減のための把握力の調節は、ロボット操作における基本的な課題であり、特に物体が複数の回転する接触によって操作される場合、(質量や表面条件など)未知の性質を持ち、外部センシングが信頼できない場合である。
対照的に、視覚的手がかりがなくても、人間は素早く触りによって握る力を調節できる。
この能力に触発されて、ロボットハンドで物体を素早く探索し、触覚による触覚による把握力制御と限定センシングを学習することを目指している。
本稿では,物体を仮想エネルギーコンテナとしてモデル化する物理情報を用いたエネルギー抽象化を提案する。
指の印加力と物体の保持エネルギーの矛盾は、スリップ・アウェアの安定性を推測するための物理的に接地された信号を与える。
この抽象化に基づいて,触覚センシングからエネルギー力学を効率的にモデル化し,リアルタイム把握力の最適化を行うモデルベース学習と計画を立てる。
シミュレーションとハードウェアの両方の実験により,本手法はスクラッチからスクラッチから把握力の制御を学習し,スリップを効果的に低減し,外的感覚や事前の物体知識に頼らずに,多種多様な物体対をまたいで把握期間を延長できることが実証された。
関連論文リスト
- AnyTouch 2: General Optical Tactile Representation Learning For Dynamic Tactile Perception [25.926187751777903]
ToucHDは、触覚のアトミックアクション、実世界操作、タッチフォースペアデータにまたがる大規模な階層的触覚データセットである。
我々は,様々な光触覚センサのための汎用触覚表現学習フレームワークであるAnyTouch 2を提案する。
論文 参考訳(メタデータ) (2026-02-10T10:05:53Z) - A Precise Real-Time Force-Aware Grasping System for Robust Aerial Manipulation [5.804333840515478]
航空操作は、安全で効果的な把握と物理的相互作用を可能にする力覚機能を必要とする。
低コストで感応性のある6種類の触覚センサを組み込んだ新しい力覚把握フレームワークを提案する。
提案フレームワークは, 力覚的把持制御を高精度に実現し, 脆弱物体の安全に操作し, 把持対象物のリアルタイム重量測定を可能にする。
論文 参考訳(メタデータ) (2026-02-09T12:40:34Z) - UniForce: A Unified Latent Force Model for Robot Manipulation with Diverse Tactile Sensors [51.88112610411651]
そこで本研究では,多様な触覚センサにまたがる共用潜在力空間を学習する,新しい統合された触覚表現学習フレームワークを提案する。
UniForceは、逆ダイナミクス(image-to-force)とフォワードダイナミクス(force-to-image)を共同モデリングすることで、クロスセンサー領域シフトを低減する
高価な外部力/トルクセンサ(F/T)への依存を避けるため,静的平衡を利用して直接センサ・オブジェクト・センサ・インタラクションを介して力対効果データを収集する。
論文 参考訳(メタデータ) (2026-02-01T11:03:01Z) - ForceGrip: Reference-Free Curriculum Learning for Realistic Grip Force Control in VR Hand Manipulation [0.10995326465245926]
本稿では,現実的な手操作動作を合成する深層学習エージェントであるForceGripを紹介する。
我々は、指の位置決め、意図適応、動的安定化を含む3段階のカリキュラム学習フレームワークを採用する。
以上の結果から,ForceGripの出力制御性と信頼性は最先端の手法に比べて優れていた。
論文 参考訳(メタデータ) (2025-03-11T05:39:07Z) - PhysDreamer: Physics-Based Interaction with 3D Objects via Video Generation [62.53760963292465]
PhysDreamerは物理に基づくアプローチで、静的な3Dオブジェクトにインタラクティブなダイナミクスを与える。
本稿では, 弾性物体の多様な例について考察し, ユーザスタディを通じて合成された相互作用の現実性を評価する。
論文 参考訳(メタデータ) (2024-04-19T17:41:05Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Property-Aware Robot Object Manipulation: a Generative Approach [57.70237375696411]
本研究では,操作対象の隠れた特性に適応したロボットの動きを生成する方法に焦点を当てた。
本稿では,ジェネレーティブ・アドバイサル・ネットワークを利用して,オブジェクトの特性に忠実な新しいアクションを合成する可能性について検討する。
以上の結果から,ジェネレーティブ・アドバイサル・ネットは,新規かつ有意義な輸送行動を生み出すための強力なツールとなる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-08T14:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。