論文の概要: Simultaneous Extrinsic Contact and In-Hand Pose Estimation via Distributed Tactile Sensing
- arxiv url: http://arxiv.org/abs/2512.23856v1
- Date: Mon, 29 Dec 2025 20:45:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.562859
- Title: Simultaneous Extrinsic Contact and In-Hand Pose Estimation via Distributed Tactile Sensing
- Title(参考訳): 分散型触覚センシングによる外部接触と手探りの同時推定
- Authors: Mark Van der Merwe, Kei Ota, Dmitry Berenson, Nima Fazeli, Devesh K. Jha,
- Abstract要約: 本研究では,センサからの局所的な観測と接触の物理的制約をマッチングする手法を提案する。
我々は問題を因子グラフとして定式化し、効率的な推定を可能にした。
実験では,本手法が既存の幾何学的および接触インフォームド推定パイプラインよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 20.162368645967153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prehensile autonomous manipulation, such as peg insertion, tool use, or assembly, require precise in-hand understanding of the object pose and the extrinsic contacts made during interactions. Providing accurate estimation of pose and contacts is challenging. Tactile sensors can provide local geometry at the sensor and force information about the grasp, but the locality of sensing means resolving poses and contacts from tactile alone is often an ill-posed problem, as multiple configurations can be consistent with the observations. Adding visual feedback can help resolve ambiguities, but can suffer from noise and occlusions. In this work, we propose a method that pairs local observations from sensing with the physical constraints of contact. We propose a set of factors that ensure local consistency with tactile observations as well as enforcing physical plausibility, namely, that the estimated pose and contacts must respect the kinematic and force constraints of quasi-static rigid body interactions. We formalize our problem as a factor graph, allowing for efficient estimation. In our experiments, we demonstrate that our method outperforms existing geometric and contact-informed estimation pipelines, especially when only tactile information is available. Video results can be found at https://tacgraph.github.io/.
- Abstract(参考訳): ペグ挿入、道具の使用、組立のような精密な自律的な操作は、オブジェクトのポーズと相互作用中に生じる外部接触を正確に理解する必要がある。
ポーズとコンタクトの正確な推定は難しい。
触覚センサはセンサーに局所的な形状を提供し、把握に関する情報を強制することができるが、センサーの局所性は、触覚のみからポーズや接触を解消することを意味している。
視覚的なフィードバックを加えることで曖昧さを解消できますが、ノイズや閉塞に悩まされます。
本研究では,センサによる局所的な観測と接触の物理的制約をマッチングする手法を提案する。
触覚観察と局所的整合性を確保するための要因のセットを提案し, 物理的妥当性, すなわち, 推定されたポーズと接触は, 準静的な剛体相互作用の運動的および力的制約を尊重しなければならない。
我々は問題を因子グラフとして定式化し、効率的な推定を可能にした。
実験では,触覚情報のみが利用可能である場合,既存の幾何学的および接触インフォームド推定パイプラインよりも優れていることを示す。
ビデオ結果はhttps://tacgraph.github.io/で見ることができる。
関連論文リスト
- Semantic-Contact Fields for Category-Level Generalizable Tactile Tool Manipulation [82.63833405368159]
ツール操作の一般化には、セマンティックプランニングと正確な物理的制御の両方が必要である。
本研究では,密接な接触推定を伴う視覚的意味論を融合した3次元表現であるセマンティック・コンタクト・フィールド(SCFields)を提案する。
スクレイピング、クレヨン描画、剥離の実験は、堅牢なカテゴリレベルの一般化を示している。
論文 参考訳(メタデータ) (2026-02-14T16:05:08Z) - Diffusion-based Inverse Model of a Distributed Tactile Sensor for Object Pose Estimation [45.95486121114164]
我々は,デノナイズ拡散を用いた逆触覚センサモデルを学習し,触覚データを効率的に活用してポーズ推定を行う。
このモデルは、分布した触覚センサからの触覚観測に基づいて調整され、幾何学的センサーモデルを用いてシミュレーションで訓練される。
オンラインポーズ推定では,提案手法を用いて逆モデルと粒子フィルタを統合する。
論文 参考訳(メタデータ) (2026-01-19T17:36:28Z) - Graph Neural Network Surrogates for Contacting Deformable Bodies with Necessary and Sufficient Contact Detection [0.0]
力学における非線形境界値問題の高速推論のためのサロゲートモデルは、幅広い工学的応用に有用である。
既存の方法は、剛体接触に制限されるか、または少なくとも、十分に定義された接触面を持つ硬質物体と軟質物体の接触に制限される。
本稿では,連続的な衝突検出を利用するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-07-17T18:09:19Z) - ViTaSCOPE: Visuo-tactile Implicit Representation for In-hand Pose and Extrinsic Contact Estimation [2.140861702387444]
豪華な接触リッチオブジェクト操作は、オブジェクトのポーズと外部の接触位置の両方を要求する。
ViTaSCOPE: VisuoTac 同時接触と物体推定について述べる。
論文 参考訳(メタデータ) (2025-06-13T21:35:58Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Tactile Object Pose Estimation from the First Touch with Geometric
Contact Rendering [19.69677059281393]
本稿では, 既知物体に対する第1タッチからの触覚ポーズ推定手法を提案する。
実際の触覚観測から接触形状への物体認識マップを作成する。
既知の幾何を持つ新しい物体に対して、シミュレーションで完全に調整された知覚モデルを学ぶ。
論文 参考訳(メタデータ) (2020-12-09T18:00:35Z) - Learning Tactile Models for Factor Graph-based Estimation [24.958055047646628]
視覚ベースの触覚センサーは、接触点におけるリッチで局所的な画像計測を提供する。
単一の測定には限られた情報が含まれ、潜在的なオブジェクト状態を推測するために複数の測定が必要です。
そこで我々は,まず,地中真理データに基づく局所触覚観測モデルを学習し,それらのモデルと物理および幾何学的要素を因子グラフに統合する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2020-12-07T15:09:31Z) - The Feeling of Success: Does Touch Sensing Help Predict Grasp Outcomes? [57.366931129764815]
両指にGelSight高解像度触覚センサを装着した2本指グリップを用いて,9000以上の握力試験を行った。
実験結果から,触覚を取り入れることで把握性能が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2017-10-16T05:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。