論文の概要: UniForce: A Unified Latent Force Model for Robot Manipulation with Diverse Tactile Sensors
- arxiv url: http://arxiv.org/abs/2602.01153v1
- Date: Sun, 01 Feb 2026 11:03:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.063027
- Title: UniForce: A Unified Latent Force Model for Robot Manipulation with Diverse Tactile Sensors
- Title(参考訳): UniForce: 各種触覚センサを用いたロボットマニピュレーションのための統合潜在力モデル
- Authors: Zhuo Chen, Fei Ni, Kaiyao Luo, Zhiyuan Wu, Xuyang Zhang, Emmanouil Spyrakos-Papastavridis, Lorenzo Jamone, Nathan F. Lepora, Jiankang Deng, Shan Luo,
- Abstract要約: そこで本研究では,多様な触覚センサにまたがる共用潜在力空間を学習する,新しい統合された触覚表現学習フレームワークを提案する。
UniForceは、逆ダイナミクス(image-to-force)とフォワードダイナミクス(force-to-image)を共同モデリングすることで、クロスセンサー領域シフトを低減する
高価な外部力/トルクセンサ(F/T)への依存を避けるため,静的平衡を利用して直接センサ・オブジェクト・センサ・インタラクションを介して力対効果データを収集する。
- 参考スコア(独自算出の注目度): 51.88112610411651
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Force sensing is essential for dexterous robot manipulation, but scaling force-aware policy learning is hindered by the heterogeneity of tactile sensors. Differences in sensing principles (e.g., optical vs. magnetic), form factors, and materials typically require sensor-specific data collection, calibration, and model training, thereby limiting generalisability. We propose UniForce, a novel unified tactile representation learning framework that learns a shared latent force space across diverse tactile sensors. UniForce reduces cross-sensor domain shift by jointly modeling inverse dynamics (image-to-force) and forward dynamics (force-to-image), constrained by force equilibrium and image reconstruction losses to produce force-grounded representations. To avoid reliance on expensive external force/torque (F/T) sensors, we exploit static equilibrium and collect force-paired data via direct sensor--object--sensor interactions, enabling cross-sensor alignment with contact force. The resulting universal tactile encoder can be plugged into downstream force-aware robot manipulation tasks with zero-shot transfer, without retraining or finetuning. Extensive experiments on heterogeneous tactile sensors including GelSight, TacTip, and uSkin, demonstrate consistent improvements in force estimation over prior methods, and enable effective cross-sensor coordination in Vision-Tactile-Language-Action (VTLA) models for a robotic wiping task. Code and datasets will be released.
- Abstract(参考訳): 力覚は器用なロボット操作には不可欠であるが, 触覚センサの不均一性により, 拡張力認識型ポリシー学習が妨げられる。
センシング原理(例えば、光学対磁気)、フォームファクター、材料の違いは、一般的にセンサー固有のデータ収集、校正、モデルトレーニングを必要とし、一般性を制限する。
多様な触覚センサ間の共用潜在力空間を学習する,新しい統合された触覚表現学習フレームワークUniForceを提案する。
UniForceは、力平衡と画像再構成損失に制約された逆ダイナミクス(画像から力への)とフォワードダイナミクス(力から力への力)を共同でモデル化することで、クロスセンサー領域シフトを低減し、力基底表現を生成する。
高価な外部力/トルクセンサ(F/T)への依存を避けるため,静的平衡を利用して直接センサ-オブジェクト-センサ間相互作用による力対データを収集し,接触力とのクロスセンサアライメントを可能にする。
結果として得られるユニバーサルな触覚エンコーダは、トレーニングや微調整をすることなく、ゼロショット転送による下流の力覚ロボット操作タスクに接続することができる。
GelSight, TacTip, uSkinなどの異種触覚センサの広範囲にわたる実験により, 従来手法よりも力推定が一貫した改善が示され, ロボットワイピング作業のためのビジョン・触覚・言語・アクション(VTLA)モデルにおいて, 効果的なクロスセンサ調整が可能となった。
コードとデータセットがリリースされる。
関連論文リスト
- Semantic-Contact Fields for Category-Level Generalizable Tactile Tool Manipulation [82.63833405368159]
ツール操作の一般化には、セマンティックプランニングと正確な物理的制御の両方が必要である。
本研究では,密接な接触推定を伴う視覚的意味論を融合した3次元表現であるセマンティック・コンタクト・フィールド(SCFields)を提案する。
スクレイピング、クレヨン描画、剥離の実験は、堅牢なカテゴリレベルの一般化を示している。
論文 参考訳(メタデータ) (2026-02-14T16:05:08Z) - TaF-VLA: Tactile-Force Alignment in Vision-Language-Action Models for Force-aware Manipulation [14.094740703476903]
本稿では,物理相互作用力の高次元触覚観測を基盤としたTaF-VLAについて紹介する。
TaF-VLAポリシは、最先端の触覚と視覚のみのベースラインを、コンタクトリッチなタスクで大幅に上回る。
論文 参考訳(メタデータ) (2026-01-28T07:34:41Z) - Closing the Reality Gap: Zero-Shot Sim-to-Real Deployment for Dexterous Force-Based Grasping and Manipulation [12.509181374985936]
複数の指を持つ人間のような器用な手は、人間レベルの操作機能を提供する。
しかし、実際のハードウェアに直接デプロイ可能なトレーニングコントロールポリシは、コンタクトリッチな物理のため、依然として難しいままです。
本稿では,高密度触覚フィードバックと関節トルクセンシングを併用して身体的相互作用を調節する実践的枠組みを提案する。
論文 参考訳(メタデータ) (2026-01-06T07:26:39Z) - Self-Supervised Multisensory Pretraining for Contact-Rich Robot Reinforcement Learning [10.782934021703783]
MultiSensory Dynamic Pretraining (MSDP)は、タスク指向のポリシー学習に適した表現型多感覚表現を学習するためのフレームワークである。
MSDPはマスク付きオートエンコーディングに基づいており、センサ埋め込みのサブセットのみからの多感覚観測を再構成することでトランスフォーマーベースのエンコーダを訓練する。
下流の政策学習では,凍結した埋め込みから動的にタスク固有の特徴を抽出するクロスアテンション機構が導入された。
論文 参考訳(メタデータ) (2025-11-18T12:32:23Z) - Feel the Force: Contact-Driven Learning from Humans [52.36160086934298]
操作中のきめ細かい力の制御は、ロボット工学における中核的な課題である。
We present FeelTheForce, a robot learning system that model human tactile behavior to learn force-sensitive control。
提案手法は,5つの力覚的操作タスクで77%の成功率を達成した,スケーラブルな人間の監督において,堅牢な低レベル力制御を実現する。
論文 参考訳(メタデータ) (2025-06-02T17:57:52Z) - FeelAnyForce: Estimating Contact Force Feedback from Tactile Sensation for Vision-Based Tactile Sensors [18.88211706267447]
視覚に基づく触覚センサを用いて3次元接触力を推定する問題に対処する。
我々のゴールは、様々な視覚ベースの触覚センサーにまたがって、あらゆる物体の接触力(最大15N)を推定することである。
論文 参考訳(メタデータ) (2024-10-02T21:28:19Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。