論文の概要: Collision-aware In-hand 6D Object Pose Estimation using Multiple
Vision-based Tactile Sensors
- arxiv url: http://arxiv.org/abs/2301.13667v1
- Date: Tue, 31 Jan 2023 14:35:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 16:21:15.456104
- Title: Collision-aware In-hand 6D Object Pose Estimation using Multiple
Vision-based Tactile Sensors
- Title(参考訳): マルチビジョン型触覚センサを用いた手動6次元物体位置推定
- Authors: Gabriele M. Caddeo, Nicola A. Piga, Fabrizio Bottarel and Lorenzo
Natale
- Abstract要約: 物体表面に沿ったセンサの空間的配置が考えられる理由を考察する。
選択したセンサー構成を用いて6Dポーズの空間を最適化する。
得られたポーズは、センサーと衝突しているポーズをペナルティ化することでランク付けする。
- 参考スコア(独自算出の注目度): 4.886250215151643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we address the problem of estimating the in-hand 6D pose of an
object in contact with multiple vision-based tactile sensors. We reason on the
possible spatial configurations of the sensors along the object surface.
Specifically, we filter contact hypotheses using geometric reasoning and a
Convolutional Neural Network (CNN), trained on simulated object-agnostic
images, to promote those that better comply with the actual tactile images from
the sensors. We use the selected sensors configurations to optimize over the
space of 6D poses using a Gradient Descent-based approach. We finally rank the
obtained poses by penalizing those that are in collision with the sensors. We
carry out experiments in simulation using the DIGIT vision-based sensor with
several objects, from the standard YCB model set. The results demonstrate that
our approach estimates object poses that are compatible with actual
object-sensor contacts in $87.5\%$ of cases while reaching an average
positional error in the order of $2$ centimeters. Our analysis also includes
qualitative results of experiments with a real DIGIT sensor.
- Abstract(参考訳): 本稿では,複数の視覚に基づく触覚センサに接触した物体の6Dポーズを推定する問題に対処する。
物体表面に沿ったセンサの空間的配置が考えられる理由を考察する。
具体的には、幾何学的推論と畳み込みニューラルネットワーク(cnn)を用いて接触仮説をフィルタリングし、物体非依存のシミュレーション画像で学習し、センサからの実際の触覚画像に合致する者を促進させる。
選択したセンサ構成を使用して,勾配勾配に基づくアプローチで6dポーズの空間を最適化する。
最終的に得られたポーズは、センサーと衝突しているポーズを罰することでランク付けする。
我々は、標準的なYCBモデルセットから、複数のオブジェクトを持つDIGIT視覚センサを用いてシミュレーション実験を行う。
その結果,提案手法は,平均位置誤差を2cmの順に到達しながら,実際の物体センサ接触と適合する物体を87.5〜%のケースで推定する。
また,実DIGITセンサを用いた実験の質的結果も分析した。
関連論文リスト
- MSSIDD: A Benchmark for Multi-Sensor Denoising [55.41612200877861]
我々は,マルチセンサSIDDデータセットという新しいベンチマークを導入する。これは,認知モデルのセンサ伝達性を評価するために設計された,最初の生ドメインデータセットである。
そこで本研究では,センサに不変な特徴を認知モデルで学習することのできるセンサ一貫性トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-18T13:32:59Z) - FeelAnyForce: Estimating Contact Force Feedback from Tactile Sensation for Vision-Based Tactile Sensors [18.88211706267447]
視覚に基づく触覚センサを用いて3次元接触力を推定する問題に対処する。
我々のゴールは、様々な視覚ベースの触覚センサーにまたがって、あらゆる物体の接触力(最大15N)を推定することである。
論文 参考訳(メタデータ) (2024-10-02T21:28:19Z) - On the Importance of Accurate Geometry Data for Dense 3D Vision Tasks [61.74608497496841]
不正確または破損したデータのトレーニングは、モデルバイアスとハマーズ一般化能力を誘導する。
本稿では,深度推定と再構成における高密度3次元視覚課題に対するセンサ誤差の影響について検討する。
論文 参考訳(メタデータ) (2023-03-26T22:32:44Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - Tac2Pose: Tactile Object Pose Estimation from the First Touch [6.321662423735226]
触覚ポーズ推定のためのオブジェクト固有のアプローチであるTac2Poseを提案する。
我々は、高密度な物体のポーズがセンサーに生み出す接触形状をシミュレートする。
我々は、RGBの触覚観測を2値の接触形状にマッピングする、物体に依存しないキャリブレーションステップでセンサから接触形状を得る。
論文 参考訳(メタデータ) (2022-04-25T14:43:48Z) - Monocular Depth Estimation for Soft Visuotactile Sensors [24.319343057803973]
高密度内部(触覚)深度マップを内部小型赤外線イメージングセンサから直接推定するための最先端の単眼深度推定法の適用について検討した。
深層ネットワークは, ほとんどがテクスチャのない変形可能な流体充填センサ内において, より短い範囲(1~100mm)で精度の高い予測を行うために効果的に訓練できることを示す。
多種多様物体に対して10秒未満のランダムポーズを10秒未満で要求するオブジェクト非依存ネットワークを訓練する,単純な教師付き学習プロセスを提案する。
論文 参考訳(メタデータ) (2021-01-05T17:51:11Z) - Tactile Object Pose Estimation from the First Touch with Geometric
Contact Rendering [19.69677059281393]
本稿では, 既知物体に対する第1タッチからの触覚ポーズ推定手法を提案する。
実際の触覚観測から接触形状への物体認識マップを作成する。
既知の幾何を持つ新しい物体に対して、シミュレーションで完全に調整された知覚モデルを学ぶ。
論文 参考訳(メタデータ) (2020-12-09T18:00:35Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。