論文の概要: TranTac: Leveraging Transient Tactile Signals for Contact-Rich Robotic Manipulation
- arxiv url: http://arxiv.org/abs/2509.16550v1
- Date: Sat, 20 Sep 2025 06:25:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.853544
- Title: TranTac: Leveraging Transient Tactile Signals for Contact-Rich Robotic Manipulation
- Title(参考訳): TranTac: コンタクトリッチロボットマニピュレーションのための過渡触覚信号の活用
- Authors: Yinghao Wu, Shuhong Hou, Haowen Zheng, Yichen Li, Weiyi Lu, Xun Zhou, Yitian Shao,
- Abstract要約: 鍵をロックに挿入したり、USBデバイスをポートに差し込んだりといったロボット操作は、視覚的な認識が不十分な場合に失敗する可能性がある。
本稿では,データ効率と低コストな触覚検知・制御フレームワークであるTranTacを紹介する。
マイクロメータスケールで動的翻訳およびねじり変形を検出することができる。
- 参考スコア(独自算出の注目度): 11.834021644402148
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Robotic manipulation tasks such as inserting a key into a lock or plugging a USB device into a port can fail when visual perception is insufficient to detect misalignment. In these situations, touch sensing is crucial for the robot to monitor the task's states and make precise, timely adjustments. Current touch sensing solutions are either insensitive to detect subtle changes or demand excessive sensor data. Here, we introduce TranTac, a data-efficient and low-cost tactile sensing and control framework that integrates a single contact-sensitive 6-axis inertial measurement unit within the elastomeric tips of a robotic gripper for completing fine insertion tasks. Our customized sensing system can detect dynamic translational and torsional deformations at the micrometer scale, enabling the tracking of visually imperceptible pose changes of the grasped object. By leveraging transformer-based encoders and diffusion policy, TranTac can imitate human insertion behaviors using transient tactile cues detected at the gripper's tip during insertion processes. These cues enable the robot to dynamically control and correct the 6-DoF pose of the grasped object. When combined with vision, TranTac achieves an average success rate of 79% on object grasping and insertion tasks, outperforming both vision-only policy and the one augmented with end-effector 6D force/torque sensing. Contact localization performance is also validated through tactile-only misaligned insertion tasks, achieving an average success rate of 88%. We assess the generalizability by training TranTac on a single prism-slot pair and testing it on unseen data, including a USB plug and a metal key, and find that the insertion tasks can still be completed with an average success rate of nearly 70%. The proposed framework may inspire new robotic tactile sensing systems for delicate manipulation tasks.
- Abstract(参考訳): 鍵をロックに挿入したり、USBデバイスをポートに差し込んだりといったロボット操作は、視覚的な認識が不十分な場合に失敗する可能性がある。
このような状況下では、ロボットがタスクの状態を監視し、正確なタイムリーな調整を行うためには、タッチセンシングが不可欠である。
現在のタッチセンシングソリューションは、微妙な変化を検知したり、過度なセンサーデータを要求したりするには敏感である。
そこで本研究では,ロボットグリップのエラストマー先端に,接触感応性6軸慣性測定ユニットを組み込んだデータ効率・低コスト触覚センシング・制御フレームワークTranTacを紹介する。
我々のカスタマイズされたセンシングシステムは、マイクロメートルスケールでの動的翻訳およびねじり変形を検出し、把握された物体の視覚的に知覚できないポーズ変化の追跡を可能にする。
トランスフォーマーベースのエンコーダと拡散ポリシを活用することで、TranTacは、挿入プロセス中にグリップの先端で検出された過渡的な触覚手がかりを使用して人間の挿入動作を模倣することができる。
これらの手がかりにより、ロボットはつかんだ物体の6-DoFポーズを動的に制御し、修正することができる。
視覚と組み合わせると、TranTacは、物体の把握と挿入作業において平均79%の成功率を達成し、視覚のみのポリシーと、エンドエフェクタ6D力/トルクセンシングで強化されたものの両方を上回っている。
また,触覚のみの不一致挿入タスクにより接触位置決め性能が検証され,平均成功率は88%となった。
我々は、TranTacを1つのプリズムスロットペアでトレーニングし、USBプラグと金属キーを含む見知らぬデータでテストすることで、一般化性を評価し、挿入タスクが平均成功率70%近くで完了できることを見出した。
提案するフレームワークは、繊細な操作作業のための新しいロボット触覚センシングシステムに刺激を与える可能性がある。
関連論文リスト
- ControlTac: Force- and Position-Controlled Tactile Data Augmentation with a Single Reference Image [24.223013595239916]
ControlTacは、単一の参照触覚画像、接触力、接触位置に条件付けされたリアルな触覚画像を生成する、制御可能なフレームワークである。
ControlTacは、触覚データセットを効果的に拡張し、一貫したゲインにつながることを実証します。
論文 参考訳(メタデータ) (2025-05-26T20:01:17Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Visual-Tactile Multimodality for Following Deformable Linear Objects
Using Reinforcement Learning [15.758583731036007]
本稿では,視覚と触覚入力を併用して変形可能な線形物体を追従するタスクを完遂する問題について検討する。
我々は,異なる感覚モーダルを用いた強化学習エージェントを作成し,その動作をどのように促進するかを検討する。
実験の結果,視覚入力と触覚入力の両方を使用することで,最大92%の症例で作業が完了することがわかった。
論文 参考訳(メタデータ) (2022-03-31T21:59:08Z) - Learning to Detect Slip with Barometric Tactile Sensors and a Temporal
Convolutional Neural Network [7.346580429118843]
本研究では,バロメトリック・触覚センサを用いたスリップ検出手法を提案する。
我々は、スリップを検出するために時間畳み込みニューラルネットワークを訓練し、高い検出精度を実現する。
データ駆動学習と組み合わせたバロメトリック触覚センシング技術は,スリップ補償などの操作作業に適している,と我々は主張する。
論文 参考訳(メタデータ) (2022-02-19T08:21:56Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Under Pressure: Learning to Detect Slip with Barometric Tactile Sensors [7.35805050004643]
本稿では,バロメトリック触覚センサを用いたスリップ検出法を提案する。
我々は91%以上のスリップ検出精度を達成することができる。
バロメトリック触覚センシング技術とデータ駆動学習の組み合わせは、多くの複雑な操作タスクに適しています。
論文 参考訳(メタデータ) (2021-03-24T19:29:03Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z) - The Feeling of Success: Does Touch Sensing Help Predict Grasp Outcomes? [57.366931129764815]
両指にGelSight高解像度触覚センサを装着した2本指グリップを用いて,9000以上の握力試験を行った。
実験結果から,触覚を取り入れることで把握性能が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2017-10-16T05:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。