論文の概要: Tactile Image-to-Image Disentanglement of Contact Geometry from
Motion-Induced Shear
- arxiv url: http://arxiv.org/abs/2109.03615v1
- Date: Wed, 8 Sep 2021 13:03:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 21:17:38.207507
- Title: Tactile Image-to-Image Disentanglement of Contact Geometry from
Motion-Induced Shear
- Title(参考訳): 運動誘起せん断による接触形状の触覚画像間距離
- Authors: Anupam K. Gupta, Laurence Aitchison, Nathan F. Lepora
- Abstract要約: ロボットタッチは、特にソフトな光触覚センサーを使用する場合、動きに依存したせん断によって引き起こされる歪みに悩まされる。
本稿では,スライディングによるせん断による接触形状によるセンサ変形の成分である潜伏空間において,絡み合うことを学習する教師付き畳み込みディープニューラルネットワークモデルを提案する。
- 参考スコア(独自算出の注目度): 30.404840177562754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robotic touch, particularly when using soft optical tactile sensors, suffers
from distortion caused by motion-dependent shear. The manner in which the
sensor contacts a stimulus is entangled with the tactile information about the
geometry of the stimulus. In this work, we propose a supervised convolutional
deep neural network model that learns to disentangle, in the latent space, the
components of sensor deformations caused by contact geometry from those due to
sliding-induced shear. The approach is validated by reconstructing unsheared
tactile images from sheared images and showing they match unsheared tactile
images collected with no sliding motion. In addition, the unsheared tactile
images give a faithful reconstruction of the contact geometry that is not
possible from the sheared data, and robust estimation of the contact pose that
can be used for servo control sliding around various 2D shapes. Finally, the
contact geometry reconstruction in conjunction with servo control sliding were
used for faithful full object reconstruction of various 2D shapes. The methods
have broad applicability to deep learning models for robots with a
shear-sensitive sense of touch.
- Abstract(参考訳): ロボットタッチは、特にソフトな光触覚センサーを使用する場合、動きに依存したせん断による歪みに悩まされる。
センサが刺激に接触する方法は、刺激の形状に関する触覚情報と絡み合っている。
本研究では,スライディングによって引き起こされるせん断による接触形状によるセンサ変形の成分である潜時空間において,絡み合うことを学習する教師付き畳み込みディープニューラルネットワークモデルを提案する。
このアプローチは、せん断画像からの無声触覚画像を再構成し、スライディング動作なしで収集した無声触覚画像と一致することを示すことによって検証される。
さらに, 触覚のない画像は, せん断データから不可能な接触形状を忠実に再現し, 各種2次元形状のサーボ制御に使用できる接触ポーズを頑健に推定する。
最後に, 接点形状の再現とサーボ制御スライディングを併用して, 各種2次元形状の忠実な全物体再構成を行った。
これらの手法は, 感傷的触覚を持つロボットの深層学習モデルに適用可能である。
関連論文リスト
- TouchSDF: A DeepSDF Approach for 3D Shape Reconstruction using
Vision-Based Tactile Sensing [29.691786688595762]
人間は視覚と触覚に頼り、身体環境の総合的な3D理解を開発する。
触覚3次元形状再構成のための深層学習手法であるTouchSDFを提案する。
本手法は,(1)触覚画像をタッチ位置の局所メッシュにマッピングする畳み込みニューラルネットワーク,(2)署名された距離関数を予測して所望の3次元形状を抽出する暗黙的ニューラルネットワークの2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-11-21T13:43:06Z) - Decaf: Monocular Deformation Capture for Face and Hand Interactions [77.75726740605748]
本稿では,単眼のRGBビデオから人間の顔と対話する人間の手を3Dで追跡する手法を提案する。
動作中の非剛性面の変形を誘発する定形物体として手をモデル化する。
本手法は,マーカーレスマルチビューカメラシステムで取得した現実的な顔変形を伴う手動・インタラクションキャプチャーデータセットに頼っている。
論文 参考訳(メタデータ) (2023-09-28T17:59:51Z) - Learning Explicit Contact for Implicit Reconstruction of Hand-held
Objects from Monocular Images [59.49985837246644]
我々は,手持ちの物体を暗黙的に再構築する上で,明示的な方法で接触をモデル化する方法を示す。
まず,1つの画像から3次元手オブジェクトの接触を直接推定するサブタスクを提案する。
第2部では,ハンドメッシュ面から近傍の3次元空間へ推定された接触状態を拡散する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:59:26Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Semi-Supervised Disentanglement of Tactile Contact~Geometry from
Sliding-Induced Shear [12.004939546183355]
触覚は人間の器用さに根ざしている。
ロボットタッチ、特にソフトな光触覚センサーで模倣すると、動きに依存したせん断による歪みに悩まされる。
本研究では,接触情報のみを保存しながらせん断を除去する半教師付き手法を提案する。
論文 参考訳(メタデータ) (2022-08-26T08:30:19Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Active 3D Shape Reconstruction from Vision and Touch [66.08432412497443]
人間は、視覚と触覚を共同で利用して、活発な物体探索を通じて世界の3D理解を構築する。
3次元形状の再構成では、最新の進歩はRGB画像、深度マップ、触覚読影などの限られた感覚データの静的データセットに依存している。
1)高空間分解能視覚に基づく触覚センサを応用した3次元物体のアクティブタッチに活用した触覚シミュレータ,2)触覚やビジュオクティビティルを先導するメッシュベースの3次元形状再構成モデル,3)触覚やビジュオのいずれかを用いたデータ駆動型ソリューションのセットからなるシステムを導入する。
論文 参考訳(メタデータ) (2021-07-20T15:56:52Z) - GelSight Wedge: Measuring High-Resolution 3D Contact Geometry with a
Compact Robot Finger [8.047951969722794]
GelSight Wedgeセンサーは、高解像度の3D再構成を実現しつつ、ロボットの指のコンパクトな形状に最適化されている。
3次元空間におけるポーズ追跡のための再構成3次元幾何の有効性と可能性を示す。
論文 参考訳(メタデータ) (2021-06-16T15:15:29Z) - Tactile Object Pose Estimation from the First Touch with Geometric
Contact Rendering [19.69677059281393]
本稿では, 既知物体に対する第1タッチからの触覚ポーズ推定手法を提案する。
実際の触覚観測から接触形状への物体認識マップを作成する。
既知の幾何を持つ新しい物体に対して、シミュレーションで完全に調整された知覚モデルを学ぶ。
論文 参考訳(メタデータ) (2020-12-09T18:00:35Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。