論文の概要: GelSLAM: A Real-time, High-Fidelity, and Robust 3D Tactile SLAM System
- arxiv url: http://arxiv.org/abs/2508.15990v1
- Date: Thu, 21 Aug 2025 22:20:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.203601
- Title: GelSLAM: A Real-time, High-Fidelity, and Robust 3D Tactile SLAM System
- Title(参考訳): GelSLAM:リアルタイム・高忠実・ロバストな3D触覚SLAMシステム
- Authors: Hung-Jui Huang, Mohammad Amin Mirzaee, Michael Kaess, Wenzhen Yuan,
- Abstract要約: GelSLAMはリアルタイムの3D SLAMシステムで、触覚センサーだけでオブジェクトのポーズを推定する。
従来のクラウドベースのアプローチとは異なり、GelSLAMは触覚から派生した表面正規と曲率を使って、堅牢な追跡とループ閉鎖を行う。
- 参考スコア(独自算出の注目度): 17.03036933449494
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Accurately perceiving an object's pose and shape is essential for precise grasping and manipulation. Compared to common vision-based methods, tactile sensing offers advantages in precision and immunity to occlusion when tracking and reconstructing objects in contact. This makes it particularly valuable for in-hand and other high-precision manipulation tasks. In this work, we present GelSLAM, a real-time 3D SLAM system that relies solely on tactile sensing to estimate object pose over long periods and reconstruct object shapes with high fidelity. Unlike traditional point cloud-based approaches, GelSLAM uses tactile-derived surface normals and curvatures for robust tracking and loop closure. It can track object motion in real time with low error and minimal drift, and reconstruct shapes with submillimeter accuracy, even for low-texture objects such as wooden tools. GelSLAM extends tactile sensing beyond local contact to enable global, long-horizon spatial perception, and we believe it will serve as a foundation for many precise manipulation tasks involving interaction with objects in hand. The video demo is available on our website: https://joehjhuang.github.io/gelslam.
- Abstract(参考訳): オブジェクトのポーズと形状を正確に知覚することは、正確な把握と操作に不可欠である。
触覚センシングは、一般的な視覚に基づく手法と比較して、接触対象の追跡と再構成において、閉塞に対する精度と免疫の利点を提供する。
これにより、特に手作業や他の高精度操作タスクに有用である。
本稿では,触覚センサのみを利用したリアルタイム3次元SLAMシステムであるGelSLAMについて述べる。
従来のクラウドベースのアプローチとは異なり、GelSLAMは触覚から派生した表面正規と曲率を使って、堅牢な追跡とループ閉鎖を行う。
低誤差で最小限のドリフトで物体の動きをリアルタイムで追跡し、木製工具のような低テクスチュアな物体であっても、サブミリ精度で形状を再構築することができる。
GelSLAMは、局所的な接触を超えて触覚を拡張して、グローバルで長期の空間的知覚を可能にする。
ビデオのデモは、私たちのWebサイト(https://joehjhuang.github.io/gelslam)で公開されている。
関連論文リスト
- V3D-SLAM: Robust RGB-D SLAM in Dynamic Environments with 3D Semantic Geometry Voting [1.3493547928462395]
動体とカメラのポーズの相関関係から,高度にダイナミックな環境下での同時位置決めとマッピング(SLAM)は困難である。
2つの軽量再評価段階を経て移動物体を除去するロバストな手法 V3D-SLAM を提案する。
TUM RGB-Dベンチマーク実験により,直近のSLAM法よりも高い性能を示した。
論文 参考訳(メタデータ) (2024-10-15T21:08:08Z) - Articulated Object Manipulation using Online Axis Estimation with SAM2-Based Tracking [57.942404069484134]
アーティキュレートされたオブジェクト操作は、オブジェクトの軸を慎重に考慮する必要がある、正確なオブジェクトインタラクションを必要とする。
従来の研究では、対話的な知覚を用いて関節のある物体を操作するが、通常、オープンループのアプローチは相互作用のダイナミクスを見渡すことに悩まされる。
本稿では,対話的知覚と3次元点雲からのオンライン軸推定を統合したクローズドループパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-24T17:59:56Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - TANDEM3D: Active Tactile Exploration for 3D Object Recognition [16.548376556543015]
触覚信号を用いた3次元物体認識のための協調学習フレームワークであるTANDEM3Dを提案する。
TANDEM3Dは、PointNet++を使って接触位置と正規値から3Dオブジェクト表現を構築する新しいエンコーダに基づいている。
本手法はシミュレーションで完全に訓練され,実世界の実験で検証される。
論文 参考訳(メタデータ) (2022-09-19T05:54:26Z) - TwistSLAM++: Fusing multiple modalities for accurate dynamic semantic
SLAM [0.0]
TwistSLAM++は、ステレオ画像とLiDAR情報を融合するセマンティックでダイナミックなSLAMシステムである。
従来のベンチマークでは,マルチモーダル情報に基づく融合手法によりオブジェクト追跡の精度が向上していることが示されている。
論文 参考訳(メタデータ) (2022-09-16T12:28:21Z) - Active 3D Shape Reconstruction from Vision and Touch [66.08432412497443]
人間は、視覚と触覚を共同で利用して、活発な物体探索を通じて世界の3D理解を構築する。
3次元形状の再構成では、最新の進歩はRGB画像、深度マップ、触覚読影などの限られた感覚データの静的データセットに依存している。
1)高空間分解能視覚に基づく触覚センサを応用した3次元物体のアクティブタッチに活用した触覚シミュレータ,2)触覚やビジュオクティビティルを先導するメッシュベースの3次元形状再構成モデル,3)触覚やビジュオのいずれかを用いたデータ駆動型ソリューションのセットからなるシステムを導入する。
論文 参考訳(メタデータ) (2021-07-20T15:56:52Z) - UNOC: Understanding Occlusion for Embodied Presence in Virtual Reality [12.349749717823736]
本稿では,内装体追跡のための新しいデータ駆動型フレームワークを提案する。
まず、体と指の両方の動作で、大規模なモーションキャプチャーデータセットを収集する。
次に, 被写体部を推定する深層ニューラルネットワークを学習し, 被写体部から被写体部を抽出し, 被写体部から被写体部を推定する。
論文 参考訳(メタデータ) (2020-11-12T09:31:09Z) - Physics-Based Dexterous Manipulations with Estimated Hand Poses and
Residual Reinforcement Learning [52.37106940303246]
ノイズの多い入力ポーズをターゲットの仮想ポーズにマッピングするモデルを学習する。
モデルフリーハイブリッドRL+ILアプローチを用いて残留条件下で訓練する。
筆者らは,VRにおける手動物体の相互作用と,それを用いた手動物体の動作再構成という,手動姿勢推定を用いた2つのアプリケーションで,我々のフレームワークを検証した。
論文 参考訳(メタデータ) (2020-08-07T17:34:28Z) - Kinematic 3D Object Detection in Monocular Video [123.7119180923524]
運動運動を注意深く利用して3次元位置決めの精度を向上させるモノクロ映像を用いた3次元物体検出法を提案する。
我々は、KITTI自動運転データセット内のモノクロ3次元物体検出とバードアイビュータスクの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-07-19T01:15:12Z) - Instant 3D Object Tracking with Applications in Augmented Reality [4.893345190925178]
3Dでオブジェクトのポーズを追跡することは拡張現実アプリケーションにとって重要なビルディングブロックである。
本研究では,物体の空間における姿勢をモバイルデバイス上でリアルタイムに追跡するインスタントモーショントラッキングシステムを提案する。
論文 参考訳(メタデータ) (2020-06-23T17:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。