論文の概要: Tactile Memory with Soft Robot: Robust Object Insertion via Masked Encoding and Soft Wrist
- arxiv url: http://arxiv.org/abs/2601.19275v1
- Date: Tue, 27 Jan 2026 07:04:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.215434
- Title: Tactile Memory with Soft Robot: Robust Object Insertion via Masked Encoding and Soft Wrist
- Title(参考訳): ソフトロボットによる触覚記憶:マスク付きエンコーディングとソフトリストによるロバスト物体挿入
- Authors: Tatsuya Kamijo, Mai Nishimura, Cristian C. Beltran-Hernandez, Nodoka Shibasaki, Masashi Hamaya,
- Abstract要約: 我々は,ソフトハンドと検索制御を統合し,安全で堅牢な操作を可能にするシステムであるTactile Memory with Soft Robot (TaSo-bot)を紹介した。
このシステムの中核はMasked Tactile Trajectory Transformer (MATtext3$) で、ロボットの動作、触覚フィードバック、力トルク測定、および受容性信号の相互作用を共同でモデル化する。
MATtext3$は、すべての条件に対するベースラインよりも高い成功率を実現し、目に見えないペグや条件に適応する顕著な能力を示している。
- 参考スコア(独自算出の注目度): 10.982180941605256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tactile memory, the ability to store and retrieve touch-based experience, is critical for contact-rich tasks such as key insertion under uncertainty. To replicate this capability, we introduce Tactile Memory with Soft Robot (TaMeSo-bot), a system that integrates a soft wrist with tactile retrieval-based control to enable safe and robust manipulation. The soft wrist allows safe contact exploration during data collection, while tactile memory reuses past demonstrations via retrieval for flexible adaptation to unseen scenarios. The core of this system is the Masked Tactile Trajectory Transformer (MAT$^\text{3}$), which jointly models spatiotemporal interactions between robot actions, distributed tactile feedback, force-torque measurements, and proprioceptive signals. Through masked-token prediction, MAT$^\text{3}$ learns rich spatiotemporal representations by inferring missing sensory information from context, autonomously extracting task-relevant features without explicit subtask segmentation. We validate our approach on peg-in-hole tasks with diverse pegs and conditions in real-robot experiments. Our extensive evaluation demonstrates that MAT$^\text{3}$ achieves higher success rates than the baselines over all conditions and shows remarkable capability to adapt to unseen pegs and conditions.
- Abstract(参考訳): 触覚記憶は、タッチベースの体験を保存し、取り出す能力であり、不確実性の下でキー挿入のような接触に富むタスクには不可欠である。
この機能を再現するために,触覚検索制御とソフト手首を統合し,安全でロバストな操作を可能にするシステムであるTactile Memory with Soft Robot (TaMeSo-bot)を導入する。
ソフトな手首は、データ収集中に安全な接触探索を可能にし、触覚記憶は、目に見えないシナリオへの柔軟な適応のための検索を通じて過去のデモを再利用する。
このシステムの中核はMasked Tactile Trajectory Transformer (MAT$^\text{3}$) であり、ロボットの動作、分散触覚フィードバック、力トルク測定、および伝達受容信号の時空間的相互作用を共同でモデル化する。
MAT$^\text{3}$はマスキングトケン予測を通じて、コンテキストから感覚情報を欠落させ、明示的なサブタスクセグメンテーションを伴わずにタスク関連機能を自律的に抽出することにより、豊かな時空間表現を学習する。
実ロボット実験におけるペグ・イン・ホールの課題に対するアプローチを多種多様なペグと条件で検証する。
MAT$^\text{3}$は全ての条件に対する基準値よりも高い成功率を示し、目に見えないペグや条件に適応する顕著な能力を示す。
関連論文リスト
- Touch in the Wild: Learning Fine-Grained Manipulation with a Portable Visuo-Tactile Gripper [7.618517580705364]
触覚センサーを内蔵した携帯型軽量グリップについて述べる。
視覚信号と触覚信号を統合するクロスモーダル表現学習フレームワークを提案する。
試験管挿入や管状流体移動などの細粒度タスクに対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2025-07-20T17:53:59Z) - Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z) - Robot Synesthesia: In-Hand Manipulation with Visuotactile Sensing [15.970078821894758]
視覚的・触覚的な感覚入力を活用して手動操作を可能にするシステムを提案する。
ロボット・シンセシス(Robot Synesthesia)は、人間の触覚と視覚の合成にインスパイアされた、新しい点の雲に基づく触覚表現である。
論文 参考訳(メタデータ) (2023-12-04T12:35:43Z) - Multimodal and Force-Matched Imitation Learning with a See-Through Visuotactile Sensor [14.492202828369127]
我々は、模倣学習(IL)の枠組みの中でマルチモーダル・ビゾタクタクタブル・センサを活用して、コンタクトリッチなタスクを実行する。
本稿では,IL改善のための補完手法として,触覚力マッチングと学習モード切替という2つのアルゴリズム的貢献を紹介する。
以上の結果から, 力の一致が平均政策成功率62.5%, ビズオタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタクタク
論文 参考訳(メタデータ) (2023-11-02T14:02:42Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - Learning to Detect Slip with Barometric Tactile Sensors and a Temporal
Convolutional Neural Network [7.346580429118843]
本研究では,バロメトリック・触覚センサを用いたスリップ検出手法を提案する。
我々は、スリップを検出するために時間畳み込みニューラルネットワークを訓練し、高い検出精度を実現する。
データ駆動学習と組み合わせたバロメトリック触覚センシング技術は,スリップ補償などの操作作業に適している,と我々は主張する。
論文 参考訳(メタデータ) (2022-02-19T08:21:56Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Under Pressure: Learning to Detect Slip with Barometric Tactile Sensors [7.35805050004643]
本稿では,バロメトリック触覚センサを用いたスリップ検出法を提案する。
我々は91%以上のスリップ検出精度を達成することができる。
バロメトリック触覚センシング技術とデータ駆動学習の組み合わせは、多くの複雑な操作タスクに適しています。
論文 参考訳(メタデータ) (2021-03-24T19:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。