論文の概要: Semi-Supervised Disentanglement of Tactile Contact~Geometry from
Sliding-Induced Shear
- arxiv url: http://arxiv.org/abs/2208.12500v1
- Date: Fri, 26 Aug 2022 08:30:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-29 13:26:42.272765
- Title: Semi-Supervised Disentanglement of Tactile Contact~Geometry from
Sliding-Induced Shear
- Title(参考訳): 触覚接触の半監督的絡み合い-すべり誘起せん断の幾何
- Authors: Anupam K. Gupta, Alex Church, Nathan F. Lepora
- Abstract要約: 触覚は人間の器用さに根ざしている。
ロボットタッチ、特にソフトな光触覚センサーで模倣すると、動きに依存したせん断による歪みに悩まされる。
本研究では,接触情報のみを保存しながらせん断を除去する半教師付き手法を提案する。
- 参考スコア(独自算出の注目度): 12.004939546183355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The sense of touch is fundamental to human dexterity. When mimicked in
robotic touch, particularly by use of soft optical tactile sensors, it suffers
from distortion due to motion-dependent shear. This complicates tactile tasks
like shape reconstruction and exploration that require information about
contact geometry. In this work, we pursue a semi-supervised approach to remove
shear while preserving contact-only information. We validate our approach by
showing a match between the model-generated unsheared images with their
counterparts from vertically tapping onto the object. The model-generated
unsheared images give faithful reconstruction of contact-geometry otherwise
masked by shear, along with robust estimation of object pose then used for
sliding exploration and full reconstruction of several planar shapes. We show
that our semi-supervised approach achieves comparable performance to its fully
supervised counterpart across all validation tasks with an order of magnitude
less supervision. The semi-supervised method is thus more computational and
labeled sample-efficient. We expect it will have broad applicability to wide
range of complex tactile exploration and manipulation tasks performed via a
shear-sensitive sense of touch.
- Abstract(参考訳): 触覚は人間の器用さの基本である。
ロボットのタッチ、特にソフトな光学触覚センサーを使って模倣すると、動きに依存したせん断による歪みに苦しむ。
これは、接触幾何学に関する情報を必要とする形状復元や探索のような触覚タスクを複雑にする。
本研究では,接触情報のみを保存しながらせん断を除去する半教師付き手法を提案する。
対象物に対して垂直にタップすることで,モデルが生成した未認識画像と対応する画像とのマッチングを示すことにより,我々のアプローチを検証する。
モデルが生成した未観測画像は、接触地形の忠実な再構築を可能にし、それ以外はせん断によって遮蔽され、また物体のポーズのロバストな推定は、スライディング探索や平面形状の完全な再構築に使用される。
我々の半教師付きアプローチは、全バリデーションタスクにまたがる完全教師付きアプローチと同等のパフォーマンスを、桁違いに低い監督で達成していることを示す。
したがって、半教師付き手法はより計算的かつラベル付けされたサンプル効率である。
多様な複雑な触覚探索や操作タスクに、せん断感応性のあるタッチ感で幅広い応用性が期待できる。
関連論文リスト
- GEARS: Local Geometry-aware Hand-object Interaction Synthesis [38.75942505771009]
本研究では, 相互作用領域近傍の局所物体形状を推定するための, 結合中心型センサを提案する。
学習の複雑さを軽減するための重要なステップとして、グローバルフレームからテンプレートハンドフレームにポイントを変換し、共有モジュールを使用して各関節のセンサ特徴を処理する。
これに続いて、異なる次元の関節間の相関を捉えることを目的とした知覚時間変換ネットワークが提供される。
論文 参考訳(メタデータ) (2024-04-02T09:18:52Z) - Snap-it, Tap-it, Splat-it: Tactile-Informed 3D Gaussian Splatting for Reconstructing Challenging Surfaces [34.831730064258494]
本研究では,タッチデータ(局所深度マップ)を多視点視覚データと組み合わせ,表面再構成と新しいビュー合成を実現する新しいアプローチである触覚インフォームド3DGSを提案する。
タッチ位置の透過率を低下させる枠組みを作成することにより,表面の微細化を実現し,均一に滑らかな深度マップを実現する。
我々は、光沢と反射面を有する物体に対して評価を行い、我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-29T16:30:17Z) - Learning Explicit Contact for Implicit Reconstruction of Hand-held
Objects from Monocular Images [59.49985837246644]
我々は,手持ちの物体を暗黙的に再構築する上で,明示的な方法で接触をモデル化する方法を示す。
まず,1つの画像から3次元手オブジェクトの接触を直接推定するサブタスクを提案する。
第2部では,ハンドメッシュ面から近傍の3次元空間へ推定された接触状態を拡散する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:59:26Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Planning Visual-Tactile Precision Grasps via Complementary Use of Vision
and Touch [9.31776719215139]
そこで本研究では,指先が対象物表面と接触すべき場所について,明確な理由を解明する手法を提案する。
提案手法の成功の鍵は,接触制約を符号化するための初期計画に視覚面推定を用いることである。
提案手法は,1つのカメラビューからの表面推定値を用いて,これまで見つからなかった物体に対して,精度の高いグリップを合成し,実行可能であることを示す。
論文 参考訳(メタデータ) (2022-12-16T17:32:56Z) - Learning to Detect Slip with Barometric Tactile Sensors and a Temporal
Convolutional Neural Network [7.346580429118843]
本研究では,バロメトリック・触覚センサを用いたスリップ検出手法を提案する。
我々は、スリップを検出するために時間畳み込みニューラルネットワークを訓練し、高い検出精度を実現する。
データ駆動学習と組み合わせたバロメトリック触覚センシング技術は,スリップ補償などの操作作業に適している,と我々は主張する。
論文 参考訳(メタデータ) (2022-02-19T08:21:56Z) - Contact-Aware Retargeting of Skinned Motion [49.71236739408685]
本稿では,自己接触を保存し,相互接続を防止する動作推定手法を提案する。
入力運動における自己接触と接地を同定し、出力骨格に適用するための動作を最適化する。
実験では,従来の手法を定量的に上回り,近年の成果よりも高い品質で再ターゲットされた動きを評価できるユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-09-15T17:05:02Z) - Tactile Image-to-Image Disentanglement of Contact Geometry from
Motion-Induced Shear [30.404840177562754]
ロボットタッチは、特にソフトな光触覚センサーを使用する場合、動きに依存したせん断によって引き起こされる歪みに悩まされる。
本稿では,スライディングによるせん断による接触形状によるセンサ変形の成分である潜伏空間において,絡み合うことを学習する教師付き畳み込みディープニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2021-09-08T13:03:08Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Active 3D Shape Reconstruction from Vision and Touch [66.08432412497443]
人間は、視覚と触覚を共同で利用して、活発な物体探索を通じて世界の3D理解を構築する。
3次元形状の再構成では、最新の進歩はRGB画像、深度マップ、触覚読影などの限られた感覚データの静的データセットに依存している。
1)高空間分解能視覚に基づく触覚センサを応用した3次元物体のアクティブタッチに活用した触覚シミュレータ,2)触覚やビジュオクティビティルを先導するメッシュベースの3次元形状再構成モデル,3)触覚やビジュオのいずれかを用いたデータ駆動型ソリューションのセットからなるシステムを導入する。
論文 参考訳(メタデータ) (2021-07-20T15:56:52Z) - 3D Shape Reconstruction from Vision and Touch [62.59044232597045]
3次元形状再構成では、視覚と触覚の相補的な融合はほとんど未解明のままである。
本稿では,ロボットハンドと多数の3Dオブジェクトの相互作用から,触覚と視覚信号のシミュレーションデータセットを提案する。
論文 参考訳(メタデータ) (2020-07-07T20:20:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。