論文の概要: Tactile Object Pose Estimation from the First Touch with Geometric
Contact Rendering
- arxiv url: http://arxiv.org/abs/2012.05205v1
- Date: Wed, 9 Dec 2020 18:00:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 02:07:15.348556
- Title: Tactile Object Pose Estimation from the First Touch with Geometric
Contact Rendering
- Title(参考訳): 幾何学的接触レンダリングによる第1タッチによる触覚物体ポーズ推定
- Authors: Maria Bauza, Eric Valls, Bryan Lim, Theo Sechopoulos, Alberto
Rodriguez
- Abstract要約: 本稿では, 既知物体に対する第1タッチからの触覚ポーズ推定手法を提案する。
実際の触覚観測から接触形状への物体認識マップを作成する。
既知の幾何を持つ新しい物体に対して、シミュレーションで完全に調整された知覚モデルを学ぶ。
- 参考スコア(独自算出の注目度): 19.69677059281393
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we present an approach to tactile pose estimation from the
first touch for known objects. First, we create an object-agnostic map from
real tactile observations to contact shapes. Next, for a new object with known
geometry, we learn a tailored perception model completely in simulation. To do
so, we simulate the contact shapes that a dense set of object poses would
produce on the sensor. Then, given a new contact shape obtained from the sensor
output, we match it against the pre-computed set using the object-specific
embedding learned purely in simulation using contrastive learning.
This results in a perception model that can localize objects from a single
tactile observation. It also allows reasoning over pose distributions and
including additional pose constraints coming from other perception systems or
multiple contacts. We provide quantitative results for four objects. Our
approach provides high accuracy pose estimations from distinctive tactile
observations while regressing pose distributions to account for those contact
shapes that could result from different object poses. We further extend and
test our approach in multi-contact scenarios where several tactile sensors are
simultaneously in contact with the object. Website:
http://mcube.mit.edu/research/tactile_loc_first_touch.html
- Abstract(参考訳): 本稿では,既知の物体に対する第1タッチからの触覚ポーズ推定手法を提案する。
まず、実際の触覚観測から接触形状への物体認識マップを作成する。
次に、既知の幾何を持つ新しい物体に対して、シミュレーションで完全に調整された知覚モデルを学ぶ。
そのために、センサに密集したオブジェクトのポーズが生じるような接触形状をシミュレートする。
そして,センサ出力から得られた新しい接触形状を,コントラスト学習を用いたシミュレーションにおいて純粋に学習した対象固有埋め込みを用いて,事前計算した集合と照合する。
これにより、単一の触覚観測から物体をローカライズできる知覚モデルが得られる。
また、他の知覚系や複数の接触から来る追加のポーズ制約を含む、ポーズ分布の推論も可能である。
4つの対象に対して定量的な結果を提供する。
提案手法は,異なる物体のポーズから生じる接触形状を考慮した姿勢分布を回帰しながら,触覚的観察から高精度なポーズ推定を行う。
我々は,複数の触覚センサが物体と同時に接触するマルチコンタクトシナリオにおいて,このアプローチをさらに拡張し,テストする。
Webサイト: http://mcube.mit.edu/research/tactile_loc_first_touch.html
関連論文リスト
- PseudoTouch: Efficiently Imaging the Surface Feel of Objects for Robotic Manipulation [8.997347199266592]
私たちの目標は、ロボットに同じような能力を持たせることです。
我々はこの問題を,低次元視覚触覚埋め込み学習のタスクとして捉えている。
ReSkinを使って、アライメントされた触覚と視覚データペアからなるデータセット上でPseudoTouchを収集し、トレーニングします。
我々はPseudoTouchの有効性を、物体認識と把握安定性予測という2つの下流タスクに適用することで実証する。
論文 参考訳(メタデータ) (2024-03-22T10:51:31Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Learning Explicit Contact for Implicit Reconstruction of Hand-held
Objects from Monocular Images [59.49985837246644]
我々は,手持ちの物体を暗黙的に再構築する上で,明示的な方法で接触をモデル化する方法を示す。
まず,1つの画像から3次元手オブジェクトの接触を直接推定するサブタスクを提案する。
第2部では,ハンドメッシュ面から近傍の3次元空間へ推定された接触状態を拡散する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:59:26Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Collision-aware In-hand 6D Object Pose Estimation using Multiple
Vision-based Tactile Sensors [4.886250215151643]
物体表面に沿ったセンサの空間的配置が考えられる理由を考察する。
選択したセンサー構成を用いて6Dポーズの空間を最適化する。
得られたポーズは、センサーと衝突しているポーズをペナルティ化することでランク付けする。
論文 参考訳(メタデータ) (2023-01-31T14:35:26Z) - Tac2Pose: Tactile Object Pose Estimation from the First Touch [6.321662423735226]
触覚ポーズ推定のためのオブジェクト固有のアプローチであるTac2Poseを提案する。
我々は、高密度な物体のポーズがセンサーに生み出す接触形状をシミュレートする。
我々は、RGBの触覚観測を2値の接触形状にマッピングする、物体に依存しないキャリブレーションステップでセンサから接触形状を得る。
論文 参考訳(メタデータ) (2022-04-25T14:43:48Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Learning Intuitive Physics with Multimodal Generative Models [24.342994226226786]
本稿では,視覚と触覚のフィードバックを融合させ,動的シーンにおける物体の動きを予測する枠組みを提案する。
我々は、接触面の高解像度マルチモーダルセンシングを提供する新しいSee-Through-your-Skin(STS)センサを使用します。
物体の静止状態を所定の初期条件から予測するシミュレーションおよび実世界の実験を通じて検証する。
論文 参考訳(メタデータ) (2021-01-12T12:55:53Z) - Learning Tactile Models for Factor Graph-based Estimation [24.958055047646628]
視覚ベースの触覚センサーは、接触点におけるリッチで局所的な画像計測を提供する。
単一の測定には限られた情報が含まれ、潜在的なオブジェクト状態を推測するために複数の測定が必要です。
そこで我々は,まず,地中真理データに基づく局所触覚観測モデルを学習し,それらのモデルと物理および幾何学的要素を因子グラフに統合する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2020-12-07T15:09:31Z) - Continuous Surface Embeddings [76.86259029442624]
我々は、変形可能な対象カテゴリーにおける密接な対応を学習し、表現するタスクに焦点をあてる。
本稿では,高密度対応の新たな学習可能な画像ベース表現を提案する。
提案手法は,人間の身近なポーズ推定のための最先端手法と同等以上の性能を示すことを示す。
論文 参考訳(メタデータ) (2020-11-24T22:52:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。