論文の概要: DexSkin: High-Coverage Conformable Robotic Skin for Learning Contact-Rich Manipulation
- arxiv url: http://arxiv.org/abs/2509.18830v1
- Date: Tue, 23 Sep 2025 09:16:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.793055
- Title: DexSkin: High-Coverage Conformable Robotic Skin for Learning Contact-Rich Manipulation
- Title(参考訳): DexSkin:コンタクトリッチマニピュレーション学習のための高性能コンフォーマブルロボットスキン
- Authors: Suzannah Wistreich, Baiyu Shi, Stephen Tian, Samuel Clarke, Michael Nath, Chengyi Xu, Zhenan Bao, Jiajun Wu,
- Abstract要約: DexSkin(デックススキン)は、感応性、局所性、および校正性のある触覚センシングを可能にするコンバータブルな容量型電子スキンである。
一対の平行な顎握手指をセンサすることで、下流でのロボット操作を学習する効果を実証する。
次に、データ駆動アプローチに対して重要なことは、DexSkinをキャリブレーションして、センサーインスタンス間のモデル転送を可能にすることである。
- 参考スコア(独自算出の注目度): 11.266003525926918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human skin provides a rich tactile sensing stream, localizing intentional and unintentional contact events over a large and contoured region. Replicating these tactile sensing capabilities for dexterous robotic manipulation systems remains a longstanding challenge. In this work, we take a step towards this goal by introducing DexSkin. DexSkin is a soft, conformable capacitive electronic skin that enables sensitive, localized, and calibratable tactile sensing, and can be tailored to varying geometries. We demonstrate its efficacy for learning downstream robotic manipulation by sensorizing a pair of parallel jaw gripper fingers, providing tactile coverage across almost the entire finger surfaces. We empirically evaluate DexSkin's capabilities in learning challenging manipulation tasks that require sensing coverage across the entire surface of the fingers, such as reorienting objects in hand and wrapping elastic bands around boxes, in a learning-from-demonstration framework. We then show that, critically for data-driven approaches, DexSkin can be calibrated to enable model transfer across sensor instances, and demonstrate its applicability to online reinforcement learning on real robots. Our results highlight DexSkin's suitability and practicality for learning real-world, contact-rich manipulation. Please see our project webpage for videos and visualizations: https://dex-skin.github.io/.
- Abstract(参考訳): ヒトの皮膚はリッチな触覚センサーのストリームを提供し、意図的かつ意図しない接触イベントを、大きくてコントゥールな領域に局在させる。
これらの触覚をロボット操作システムに再現することは、長年の課題だ。
この作業では、DexSkinを導入することで、この目標に向かって一歩踏み出します。
DexSkinは柔らかくコンフォーマブルなコンデンサブルな電子スキンで、感度、局所化、および校正可能な触覚センシングを可能にし、様々なジオメトリに合わせて調整することができる。
一対の平行な顎握手指を感知し、ほぼ全ての指表面を触覚でカバーし、下流でのロボット操作を学習する効果を実証した。
そこで我々は,DexSkinの操作課題を学習する上での能力について実証的に評価した。例えば手動で物体を並べ替えたり,箱のまわりに弾性バンドを巻いたりするなど,指の表面全体を包含する必要がある。
そして、データ駆動アプローチにとって重要なことは、DexSkinを校正して、センサーインスタンス間のモデル転送を可能にし、実際のロボット上でのオンライン強化学習への適用性を実証できることである。
この結果から,DexSkinが実世界のコンタクトリッチな操作を学習するための適合性と実践性を強調した。
ビデオやビジュアライゼーションのプロジェクトのWebページをご覧ください。
関連論文リスト
- Touch in the Wild: Learning Fine-Grained Manipulation with a Portable Visuo-Tactile Gripper [7.618517580705364]
触覚センサーを内蔵した携帯型軽量グリップについて述べる。
視覚信号と触覚信号を統合するクロスモーダル表現学習フレームワークを提案する。
試験管挿入や管状流体移動などの細粒度タスクに対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2025-07-20T17:53:59Z) - Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - DexTouch: Learning to Seek and Manipulate Objects with Tactile Dexterity [11.450027373581019]
視覚に頼らずに触覚で物体を操作できる多指ロボットシステムを提案する。
日常の生活を模倣するタスクのために、ロボットは触覚を使ってランダムに配置された物体を暗く操作する。
論文 参考訳(メタデータ) (2024-01-23T05:37:32Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Robot Synesthesia: In-Hand Manipulation with Visuotactile Sensing [15.970078821894758]
視覚的・触覚的な感覚入力を活用して手動操作を可能にするシステムを提案する。
ロボット・シンセシス(Robot Synesthesia)は、人間の触覚と視覚の合成にインスパイアされた、新しい点の雲に基づく触覚表現である。
論文 参考訳(メタデータ) (2023-12-04T12:35:43Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。