論文の概要: TacLoc: Global Tactile Localization on Objects from a Registration Perspective
- arxiv url: http://arxiv.org/abs/2603.10565v1
- Date: Wed, 11 Mar 2026 09:15:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-21 18:33:56.671669
- Title: TacLoc: Global Tactile Localization on Objects from a Registration Perspective
- Title(参考訳): TacLoc: 登録の観点からのオブジェクトのグローバルな触覚位置決め
- Authors: Zirui Zhang, Boyang Zhang, Fumin Zhang, Huan Yin,
- Abstract要約: ポース推定はロボット操作において不可欠であり、特にグリップとオブジェクトの相互作用において視覚的知覚が妨げられる場合である。
既存の触覚ベースの手法は、その一般化性と効率を制限した触覚シミュレーションや事前訓練モデルに依存している。
そこで我々は,この問題を一点のクラウド登録タスクとして定式化する,新しい触覚ローカライゼーションフレームワークであるTacLocを提案する。
- 参考スコア(独自算出の注目度): 8.561002414977509
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pose estimation is essential for robotic manipulation, particularly when visual perception is occluded during gripper-object interactions. Existing tactile-based methods generally rely on tactile simulation or pre-trained models, which limits their generalizability and efficiency. In this study, we propose TacLoc, a novel tactile localization framework that formulates the problem as a one-shot point cloud registration task. TacLoc introduces a graph-theoretic partial-to-full registration method, leveraging dense point clouds and surface normals from tactile sensing for efficient and accurate pose estimation. Without requiring rendered data or pre-trained models, TacLoc achieves improved performance through normal-guided graph pruning and a hypothesis-and-verification pipeline. TacLoc is evaluated extensively on the YCB dataset. We further demonstrate TacLoc on real-world objects across two different visual-tactile sensors.
- Abstract(参考訳): ポース推定はロボット操作において不可欠であり、特にグリップとオブジェクトの相互作用において視覚的知覚が妨げられる場合である。
既存の触覚ベースの手法は、一般的に触覚シミュレーションや事前訓練されたモデルに依存しており、その一般化性と効率を制限している。
本研究では,一対一のクラウド登録タスクとして問題を定式化する,新しい触覚ローカライゼーションフレームワークであるTacLocを提案する。
TacLocは、触覚センシングから高密度点雲と表面正常を利用して、効率よく正確なポーズ推定を行うグラフ理論のパーシャル・ツー・フル登録法を導入している。
レンダリングデータや事前トレーニングされたモデルを必要としないTacLocは,通常のグラフプルーニングと仮説検証パイプラインを通じて,パフォーマンスの向上を実現している。
TacLocはYCBデータセットで広く評価されている。
さらに、2つの異なる視覚触覚センサをまたいだ現実世界のオブジェクト上でTacLocを実証する。
関連論文リスト
- OmniVTA: Visuo-Tactile World Modeling for Contact-Rich Robotic Manipulation [60.609604885961716]
textbfOmniViTacは,16ドルのタスクと100ドル以上のオブジェクトからなる21,000ドル以上のトラジェクトリからなる大規模ビズオタクティルアクションデータセットである。
我々は4つの密結合モジュールを統合する世界モデルベースのビジュオ触覚操作フレームワークである textbf OmniVTA を提案する。
論文 参考訳(メタデータ) (2026-03-19T17:52:42Z) - Adaptive Point-Prompt Tuning: Fine-Tuning Heterogeneous Foundation Models for 3D Point Cloud Analysis [51.37795317716487]
本稿では,パラメータの少ない事前学習モデルを微調整するAdaptive Point-Prompt Tuning (APPT)法を提案する。
局所幾何学を集約することで原点雲を点埋め込みに変換し、空間的特徴を捉える。
任意のモダリティのソース領域から3Dへの自己アテンションを校正するために,重みを点埋め込みモジュールと共有するプロンプトジェネレータを導入する。
論文 参考訳(メタデータ) (2025-08-30T06:02:21Z) - Sim2Real Transfer for Vision-Based Grasp Verification [7.9471205712560264]
本稿では,ロボットグリップが物体の把握に成功しているかどうかを判断するために,視力に基づく検証手法を提案する。
本手法は,ロボットのグリップを検知し,検出するための,最初のYOLOに基づく物体検出モデルである2段階アーキテクチャを用いている。
実世界のデータキャプチャの限界に対処するために,多様な把握シナリオをシミュレートする合成データセットであるHSR-Grasp Synthを導入する。
論文 参考訳(メタデータ) (2025-05-05T22:04:12Z) - ViTa-Zero: Zero-shot Visuotactile Object 6D Pose Estimation [14.575011735514522]
ViTa-Zeroはゼロショットビゾタクティルポーズ推定フレームワークである。
実世界のロボット・セットアップの実験を通して、我々のフレームワークを検証する。
論文 参考訳(メタデータ) (2025-04-17T17:59:56Z) - Diff9D: Diffusion-Based Domain-Generalized Category-Level 9-DoF Object Pose Estimation [68.81887041766373]
ドメイン一般化9-DoFオブジェクトポーズ推定のための拡散に基づくパラダイムを提案する。
本研究では,9-DoFオブジェクトのポーズ推定を生成的観点から再定義する効果的な拡散モデルを提案する。
提案手法は,最先端の領域一般化性能を実現する。
論文 参考訳(メタデータ) (2025-02-04T17:46:34Z) - Bidirectional Knowledge Reconfiguration for Lightweight Point Cloud
Analysis [74.00441177577295]
ポイントクラウド分析は計算システムのオーバーヘッドに直面し、モバイルやエッジデバイスでの利用を制限する。
本稿では,軽量点雲モデルのための特徴蒸留について検討する。
本研究では,教師から生徒への情報的文脈的知識を抽出するための双方向知識再構成を提案する。
論文 参考訳(メタデータ) (2023-10-08T11:32:50Z) - Locally Aware Piecewise Transformation Fields for 3D Human Mesh
Registration [67.69257782645789]
本論文では,3次元変換ベクトルを学習し,提案空間内の任意のクエリ点をリザーブ空間内の対応する位置にマップする部分変換場を提案する。
パラメトリックモデルにネットワークのポーズを合わせることで、特に極端なポーズにおいて、より優れた登録品質が得られることを示す。
論文 参考訳(メタデータ) (2021-04-16T15:16:09Z) - Scalable Scene Flow from Point Clouds in the Real World [30.437100097997245]
オープンデータセットに基づくシーンフローの大規模ベンチマークを新たに導入します。
実際のLiDARデータの量に基づいて、これまでの作業がバウンドされているかを示す。
フルポイントクラウド上でリアルタイム推論を提供するモデルアーキテクチャFastFlow3Dを紹介します。
論文 参考訳(メタデータ) (2021-03-01T20:56:05Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。