論文の概要: Symmetry-Aware Fusion of Vision and Tactile Sensing via Bilateral Force Priors for Robotic Manipulation
- arxiv url: http://arxiv.org/abs/2602.13689v1
- Date: Sat, 14 Feb 2026 09:19:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.342283
- Title: Symmetry-Aware Fusion of Vision and Tactile Sensing via Bilateral Force Priors for Robotic Manipulation
- Title(参考訳): ロボットマニピュレーションのための左右力前処理による視覚と触覚の対称性を考慮した融合
- Authors: Wonju Lee, Matteo Grimaldi, Tao Yu,
- Abstract要約: 本稿では,バイスオ触覚融合のためのクロスモーダルトランス (CMT) を提案する。
CMTは、構造化された自己および横断的注意を通して触覚信号と手首カメラ観測を統合する。
TacSLベンチマークの実験では、対称性の正則化を持つCMTが96.59%の挿入成功率を達成した。
- 参考スコア(独自算出の注目度): 7.104060092661104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Insertion tasks in robotic manipulation demand precise, contact-rich interactions that vision alone cannot resolve. While tactile feedback is intuitively valuable, existing studies have shown that naïve visuo-tactile fusion often fails to deliver consistent improvements. In this work, we propose a Cross-Modal Transformer (CMT) for visuo-tactile fusion that integrates wrist-camera observations with tactile signals through structured self- and cross-attention. To stabilize tactile embeddings, we further introduce a physics-informed regularization that encourages bilateral force balance, reflecting principles of human motor control. Experiments on the TacSL benchmark show that CMT with symmetry regularization achieves a 96.59% insertion success rate, surpassing naïve and gated fusion baselines and closely matching the privileged "wrist + contact force" configuration (96.09%). These results highlight two central insights: (i) tactile sensing is indispensable for precise alignment, and (ii) principled multimodal fusion, further strengthened by physics-informed regularization, unlocks complementary strengths of vision and touch, approaching privileged performance under realistic sensing.
- Abstract(参考訳): ロボット操作における挿入タスクは、視覚だけでは解決できない正確で接触に富んだ相互作用を要求する。
触覚フィードバックは直感的に価値があるが、既存の研究では、ナビオ・触覚融合はしばしば一貫した改善をもたらすことができないことが示されている。
本研究では,手首カメラの観察と触覚信号の統合を,構造化された自己および横断的注意を通して行うビジュオ触覚融合のためのクロスモーダルトランス (CMT) を提案する。
触覚の埋め込みを安定させるために,人間の運動制御の原理を反映した両力バランスを促進する物理インフォームド正規化を導入する。
TacSLベンチマークの実験では、対称性の正則化によるCMTは96.59%の挿入成功率を達成し、ナイーブとゲート融合ベースラインを超越し、特権付き "wrist + contact force" 構成(96.09%)と密接に一致している。
これらの結果は2つの中心的な洞察を浮き彫りにしている。
一 触覚は、正確な調整に欠かせないもので、
(II) 物理インフォームド正規化によりさらに強化された原理的マルチモーダル融合は、視覚と触覚の相補的な強みを解き、現実的な知覚の下で特権的性能に近づく。
関連論文リスト
- FD-VLA: Force-Distilled Vision-Language-Action Model for Contact-Rich Manipulation [8.726448573057725]
本稿では,力覚をコンタクトリッチな操作に統合する新しいフレームワークであるForce-Distilled VLAを提案する。
当社のアプローチのコアは、学習可能なクエリトークンをマッピングすることで、フォースを蒸留するFDM(Force Distillation Module)である。
推理中、この蒸留された力トークンは、予め訓練されたVLMに注入され、力を認識する推論が可能となる。
論文 参考訳(メタデータ) (2026-02-02T14:19:46Z) - Closing the Reality Gap: Zero-Shot Sim-to-Real Deployment for Dexterous Force-Based Grasping and Manipulation [12.509181374985936]
複数の指を持つ人間のような器用な手は、人間レベルの操作機能を提供する。
しかし、実際のハードウェアに直接デプロイ可能なトレーニングコントロールポリシは、コンタクトリッチな物理のため、依然として難しいままです。
本稿では,高密度触覚フィードバックと関節トルクセンシングを併用して身体的相互作用を調節する実践的枠組みを提案する。
論文 参考訳(メタデータ) (2026-01-06T07:26:39Z) - OPENTOUCH: Bringing Full-Hand Touch to Real-World Interaction [93.88239833545623]
OpenTouchは、最初のインザワイルドなエゴセントリックなフルハンド触覚データセットです。
触覚信号は,理解のためのコンパクトで強力なキューを提供する。
我々は,マルチモーダルな自我中心の知覚,具体的学習,接触に富むロボット操作の促進を目指す。
論文 参考訳(メタデータ) (2025-12-18T18:18:17Z) - TranTac: Leveraging Transient Tactile Signals for Contact-Rich Robotic Manipulation [11.834021644402148]
鍵をロックに挿入したり、USBデバイスをポートに差し込んだりといったロボット操作は、視覚的な認識が不十分な場合に失敗する可能性がある。
本稿では,データ効率と低コストな触覚検知・制御フレームワークであるTranTacを紹介する。
マイクロメータスケールで動的翻訳およびねじり変形を検出することができる。
論文 参考訳(メタデータ) (2025-09-20T06:25:59Z) - Multimodal and Force-Matched Imitation Learning with a See-Through Visuotactile Sensor [14.492202828369127]
我々は、模倣学習(IL)の枠組みの中でマルチモーダル・ビゾタクタクタブル・センサを活用して、コンタクトリッチなタスクを実行する。
本稿では,IL改善のための補完手法として,触覚力マッチングと学習モード切替という2つのアルゴリズム的貢献を紹介する。
以上の結果から, 力の一致が平均政策成功率62.5%, ビズオタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタク
論文 参考訳(メタデータ) (2023-11-02T14:02:42Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Learning Compliance Adaptation in Contact-Rich Manipulation [81.40695846555955]
本稿では,コンタクトリッチタスクに必要な力プロファイルの予測モデルを学習するための新しいアプローチを提案する。
このアプローチは、双方向Gated Recurrent Units (Bi-GRU) に基づく異常検出と適応力/インピーダンス制御を組み合わせたものである。
論文 参考訳(メタデータ) (2020-05-01T05:23:34Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z) - The Feeling of Success: Does Touch Sensing Help Predict Grasp Outcomes? [57.366931129764815]
両指にGelSight高解像度触覚センサを装着した2本指グリップを用いて,9000以上の握力試験を行った。
実験結果から,触覚を取り入れることで把握性能が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2017-10-16T05:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。