論文の概要: Learning Bimanual Cloth Manipulation with Vision-based Tactile Sensing via Single Robotic Arm
- arxiv url: http://arxiv.org/abs/2603.10609v1
- Date: Wed, 11 Mar 2026 10:15:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-21 18:33:56.674052
- Title: Learning Bimanual Cloth Manipulation with Vision-based Tactile Sensing via Single Robotic Arm
- Title(参考訳): 視覚に基づく触覚センシングを用いたロボットアームによるバイマニピュレーションの学習
- Authors: Dongmyoung Lee, Wei Chen, Xiaoshuai Chen, Rui Zong, Petar Kormushev,
- Abstract要約: Touch G.O.G. (タッチ G.O.G.) は、視覚をベースとした触覚グリップと、単腕バイマニュアル布の操作のための知覚/制御フレームワークである。
実験では、エッジ、コーナー、インテリアリージョン、障害の把握において、96%の精度が示されている。
結果として、Touch G.O.G.は変形可能なオブジェクト操作のためのコンパクトで費用対効果の高いソリューションであると強調された。
- 参考スコア(独自算出の注目度): 5.190090354079479
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robotic cloth manipulation remains challenging due to the high-dimensional state space of fabrics, their deformable nature, and frequent occlusions that limit vision-based sensing. Although dual-arm systems can mitigate some of these issues, they increase hardware and control complexity. This paper presents Touch G.O.G., a compact vision-based tactile gripper and perception/control framework for single-arm bimanual cloth manipulation. The proposed framework combines three key components: (1) a novel gripper design and control strategy for in-gripper cloth sliding with a single robot arm, (2) a Vision Foundation Model-backboned Vision Transformer pipeline for cloth part classification (PC-Net) and edge pose estimation (PE-Net) using real and synthetic tactile images, and (3) an encoder-decoder synthetic data generator (SD-Net) that reduces manual annotation by producing high-fidelity tactile images. Experiments show 96% accuracy in distinguishing edges, corners, interior regions, and grasp failures, together with sub-millimeter edge localization and 4.5° orientation error. Real-world results demonstrate reliable cloth unfolding, even for crumpled fabrics, using only a single robotic arm. These results highlight Touch G.O.G. as a compact and cost-effective solution for deformable object manipulation.
- Abstract(参考訳): ロボット布の操作は、織物の高次元状態空間、変形可能な性質、そして視覚に基づくセンシングを制限する頻繁な閉塞により、依然として困難なままである。
デュアルアームシステムはこれらの問題のいくつかを軽減することができるが、ハードウェアと制御の複雑さを増大させる。
本稿では,Touch G.O.G.について述べる。
提案フレームワークは,(1)単一ロボットアームで滑動するグリッパーの新規設計と制御戦略,(2)リアルおよび合成触覚画像を用いた布部分類(PC-Net)とエッジポーズ推定(PE-Net)のためのビジョンファウンデーションモデルバックボンドビジョントランスフォーマーパイプライン,(3)高忠実度触覚画像を作成することで手動アノテーションを低減したエンコーダ・デコーダ合成データジェネレータ(SD-Net)の3つの重要な構成要素を組み合わせた。
実験では、エッジ、コーナー、インテリア領域、グリップ障害を区別する精度が96%、サブミリ波のエッジローカライゼーションと4.5°方向誤差がある。
実際の成果は、1つのロボットアームのみを使用して、折りたたみ布でも、信頼性の高い布の展開を実証している。
これらの結果は、変形可能なオブジェクト操作のためのコンパクトで費用効率の良いソリューションとしてTouch G.O.G.を強調している。
関連論文リスト
- ControlTac: Force- and Position-Controlled Tactile Data Augmentation with a Single Reference Image [24.223013595239916]
ControlTacは、単一の参照触覚画像、接触力、接触位置に条件付けされたリアルな触覚画像を生成する、制御可能なフレームワークである。
ControlTacは、触覚データセットを効果的に拡張し、一貫したゲインにつながることを実証します。
論文 参考訳(メタデータ) (2025-05-26T20:01:17Z) - Visuo-Tactile Object Pose Estimation for a Multi-Finger Robot Hand with Low-Resolution In-Hand Tactile Sensing [9.970043211592058]
把握された物体の正確な3Dポーズ推定は、ロボットが組み立てや手動操作を行うための重要な前提条件である。
本稿では,視覚情報とプロバイオセプションを2値の低解像度触覚接触測定と組み合わせることで,この問題を軽減することを提案する。
論文 参考訳(メタデータ) (2025-03-25T17:53:53Z) - TouchSDF: A DeepSDF Approach for 3D Shape Reconstruction using
Vision-Based Tactile Sensing [29.691786688595762]
人間は視覚と触覚に頼り、身体環境の総合的な3D理解を開発する。
触覚3次元形状再構成のための深層学習手法であるTouchSDFを提案する。
本手法は,(1)触覚画像をタッチ位置の局所メッシュにマッピングする畳み込みニューラルネットワーク,(2)署名された距離関数を予測して所望の3次元形状を抽出する暗黙的ニューラルネットワークの2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-11-21T13:43:06Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Reconfigurable Data Glove for Reconstructing Physical and Virtual Grasps [100.72245315180433]
本研究では,人間の手-物体相互作用の異なるモードを捉えるために,再構成可能なデータグローブの設計を提案する。
グローブは3つのモードで動作し、異なる特徴を持つ様々な下流タスクを実行する。
i)手の動きと関連力を記録し,(ii)VRの操作流速を改善するとともに,(iii)様々なツールの現実的なシミュレーション効果を生み出すことにより,システムの3つのモードを評価する。
論文 参考訳(メタデータ) (2023-01-14T05:35:50Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - DIGIT: A Novel Design for a Low-Cost Compact High-Resolution Tactile
Sensor with Application to In-Hand Manipulation [16.54834671357377]
汎用的な手動操作は、ロボティクスの未解決課題の1つとして残されている。
DIGITは安価でコンパクトで高解像度な触覚センサで、手作業で操作できる。
論文 参考訳(メタデータ) (2020-05-29T17:07:54Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。