論文の概要: Tac2Pose: Tactile Object Pose Estimation from the First Touch
- arxiv url: http://arxiv.org/abs/2204.11701v1
- Date: Mon, 25 Apr 2022 14:43:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 16:44:43.305612
- Title: Tac2Pose: Tactile Object Pose Estimation from the First Touch
- Title(参考訳): Tac2Pose:最初のタッチから触覚オブジェクトポス推定
- Authors: Maria Bauza, Antonia Bronars, Alberto Rodriguez
- Abstract要約: 触覚ポーズ推定のためのオブジェクト固有のアプローチであるTac2Poseを提案する。
我々は、高密度な物体のポーズがセンサーに生み出す接触形状をシミュレートする。
我々は、RGBの触覚観測を2値の接触形状にマッピングする、物体に依存しないキャリブレーションステップでセンサから接触形状を得る。
- 参考スコア(独自算出の注目度): 7.3372471678239215
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In this paper, we present Tac2Pose, an object-specific approach to tactile
pose estimation from the first touch for known objects. Given the object
geometry, we learn a tailored perception model in simulation that estimates a
probability distribution over possible object poses given a tactile
observation. To do so, we simulate the contact shapes that a dense set of
object poses would produce on the sensor. Then, given a new contact shape
obtained from the sensor, we match it against the pre-computed set using an
object-specific embedding learned using contrastive learning. We obtain contact
shapes from the sensor with an object-agnostic calibration step that maps RGB
tactile observations to binary contact shapes. This mapping, which can be
reused across object and sensor instances, is the only step trained with real
sensor data. This results in a perception model that localizes objects from the
first real tactile observation. Importantly, it produces pose distributions and
can incorporate additional pose constraints coming from other perception
systems, contacts, or priors.
We provide quantitative results for 20 objects. Tac2Pose provides high
accuracy pose estimations from distinctive tactile observations while
regressing meaningful pose distributions to account for those contact shapes
that could result from different object poses. We also test Tac2Pose on object
models reconstructed from a 3D scanner, to evaluate the robustness to
uncertainty in the object model. Finally, we demonstrate the advantages of
Tac2Pose compared with three baseline methods for tactile pose estimation:
directly regressing the object pose with a neural network, matching an observed
contact to a set of possible contacts using a standard classification neural
network, and direct pixel comparison of an observed contact with a set of
possible contacts.
Website: http://mcube.mit.edu/research/tac2pose.html
- Abstract(参考訳): 本稿では,既知物体に対する第1タッチからの触覚ポーズ推定のための物体固有アプローチであるtac2poseを提案する。
物体形状を考慮に入れ, 触覚観測により, 被写体に対する確率分布を推定するシミュレーションにおいて, 適切な知覚モデルを学ぶ。
そのために、センサに密集したオブジェクトのポーズが生じるような接触形状をシミュレートする。
そして,センサから得られた新しい接触形状を,コントラスト学習を用いて学習した物体固有の埋め込みを用いて,事前計算した集合と照合する。
rgb触覚観測を2元接触形状にマッピングする物体非依存キャリブレーションステップを用いて,センサから接触形状を求める。
このマッピングは、オブジェクトとセンサーインスタンス間で再利用できるが、実際のセンサーデータでトレーニングされる唯一のステップである。
この結果、最初の実触覚観察から物体を局所化する知覚モデルが得られる。
重要なことは、ポーズ分布を生成し、他の知覚システム、連絡先、または事前からの追加のポーズ制約を組み込むことができる。
20個のオブジェクトに対して定量的な結果を提供する。
tac2poseは、異なる物体のポーズから生じる可能性のある接触形状を考慮し、有意義なポーズ分布を回帰しながら、特徴的な触覚観察から高い精度のポーズ推定を提供する。
また,3dスキャナから再構成したオブジェクトモデルに対してtac2poseをテストし,オブジェクトモデルの不確かさに対するロバスト性を評価する。
最後に、触覚ポーズ推定のための3つの基本手法と比較して、Tac2Poseの利点を実証する: 物体のポーズを直接ニューラルネットワークで回帰し、標準分類ニューラルネットワークを用いて観測された接触と可能な接触のセットをマッチングし、観測された接触と可能な接触のセットを直接ピクセル比較する。
Webサイト: http://mcube.mit.edu/research/tac2pose.html
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - 3D Foundation Models Enable Simultaneous Geometry and Pose Estimation of Grasped Objects [13.58353565350936]
本研究では,ロボットが把握した物体の形状と姿勢を共同で推定する手法を提案する。
提案手法は,推定幾何をロボットの座標フレームに変換する。
我々は,実世界の多様な物体の集合を保持するロボットマニピュレータに対する我々のアプローチを実証的に評価した。
論文 参考訳(メタデータ) (2024-07-14T21:02:55Z) - Learning Explicit Contact for Implicit Reconstruction of Hand-held
Objects from Monocular Images [59.49985837246644]
我々は,手持ちの物体を暗黙的に再構築する上で,明示的な方法で接触をモデル化する方法を示す。
まず,1つの画像から3次元手オブジェクトの接触を直接推定するサブタスクを提案する。
第2部では,ハンドメッシュ面から近傍の3次元空間へ推定された接触状態を拡散する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:59:26Z) - CheckerPose: Progressive Dense Keypoint Localization for Object Pose
Estimation with Graph Neural Network [66.24726878647543]
単一のRGB画像から固い物体の6-DoFのポーズを推定することは、非常に難しい課題である。
近年の研究では、高密度対応型解の大きな可能性を示している。
そこで本研究では,CheckerPoseというポーズ推定アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-29T17:30:53Z) - FingerSLAM: Closed-loop Unknown Object Localization and Reconstruction
from Visuo-tactile Feedback [5.871946269300959]
FingerSLAMは、指先での局所触覚センシングと、手首マウントカメラからのグローバル視覚センシングを組み合わせた、クローズドループ係数グラフに基づくポーズ推定装置である。
トレーニング中に見つからない6つの物体の定量的および定性的な実世界評価により,信頼性の高いビジュオ触覚ポーズ推定と形状再構成を実証した。
論文 参考訳(メタデータ) (2023-03-14T15:48:47Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Neural Correspondence Field for Object Pose Estimation [67.96767010122633]
1枚のRGB画像から3次元モデルで剛体物体の6DoFポーズを推定する手法を提案する。
入力画像の画素で3次元オブジェクト座標を予測する古典的対応法とは異なり,提案手法はカメラフラストラムでサンプリングされた3次元クエリポイントで3次元オブジェクト座標を予測する。
論文 参考訳(メタデータ) (2022-07-30T01:48:23Z) - Physically Plausible Pose Refinement using Fully Differentiable Forces [68.8204255655161]
対象物が経験する力を学習することでポーズ推定を精緻化するエンドツーエンドの差別化モデルを提案する。
学習されたネット力と有限位置差に基づくネット力の推定とをマッチングすることにより、このモデルは物体の動きを正確に記述する力を見つけることができる。
rgbや深度画像のデータを使わずに、このモデルがポーズの修正に成功し、接点マップが地面の真実に合致することを示す。
論文 参考訳(メタデータ) (2021-05-17T23:33:04Z) - Tactile Object Pose Estimation from the First Touch with Geometric
Contact Rendering [19.69677059281393]
本稿では, 既知物体に対する第1タッチからの触覚ポーズ推定手法を提案する。
実際の触覚観測から接触形状への物体認識マップを作成する。
既知の幾何を持つ新しい物体に対して、シミュレーションで完全に調整された知覚モデルを学ぶ。
論文 参考訳(メタデータ) (2020-12-09T18:00:35Z) - Learning Tactile Models for Factor Graph-based Estimation [24.958055047646628]
視覚ベースの触覚センサーは、接触点におけるリッチで局所的な画像計測を提供する。
単一の測定には限られた情報が含まれ、潜在的なオブジェクト状態を推測するために複数の測定が必要です。
そこで我々は,まず,地中真理データに基づく局所触覚観測モデルを学習し,それらのモデルと物理および幾何学的要素を因子グラフに統合する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2020-12-07T15:09:31Z) - Contact Area Detector using Cross View Projection Consistency for
COVID-19 Projects [7.539495357219132]
物体と静的表面との接触は、2つの異なる視点から物体を静的表面へ投影することで識別可能であることを示す。
この単純な方法は現実の応用に容易に適応できる。
論文 参考訳(メタデータ) (2020-08-18T02:57:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。