論文の概要: ArtReg: Visuo-Tactile based Pose Tracking and Manipulation of Unseen Articulated Objects
- arxiv url: http://arxiv.org/abs/2511.06378v1
- Date: Sun, 09 Nov 2025 13:30:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.912193
- Title: ArtReg: Visuo-Tactile based Pose Tracking and Manipulation of Unseen Articulated Objects
- Title(参考訳): ArtReg: Visuo-Tactile を用いた未知の物体の詩追跡と操作
- Authors: Prajval Kumar Murali, Mohsen Kaboli,
- Abstract要約: 視認できない物体の視触覚に基づく追跡のための新しい手法を提案する。
提案手法は,無意味なカルマンフィルタの定式化において,ビジュオ触点雲を統合する。
我々は,実際のロボット実験を通じて,様々な種類の未知物体に対するアプローチを広く評価してきた。
- 参考スコア(独自算出の注目度): 2.9793019246605676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robots operating in real-world environments frequently encounter unknown objects with complex structures and articulated components, such as doors, drawers, cabinets, and tools. The ability to perceive, track, and manipulate these objects without prior knowledge of their geometry or kinematic properties remains a fundamental challenge in robotics. In this work, we present a novel method for visuo-tactile-based tracking of unseen objects (single, multiple, or articulated) during robotic interaction without assuming any prior knowledge regarding object shape or dynamics. Our novel pose tracking approach termed ArtReg (stands for Articulated Registration) integrates visuo-tactile point clouds in an unscented Kalman Filter formulation in the SE(3) Lie Group for point cloud registration. ArtReg is used to detect possible articulated joints in objects using purposeful manipulation maneuvers such as pushing or hold-pulling with a two-robot team. Furthermore, we leverage ArtReg to develop a closed-loop controller for goal-driven manipulation of articulated objects to move the object into the desired pose configuration. We have extensively evaluated our approach on various types of unknown objects through real robot experiments. We also demonstrate the robustness of our method by evaluating objects with varying center of mass, low-light conditions, and with challenging visual backgrounds. Furthermore, we benchmarked our approach on a standard dataset of articulated objects and demonstrated improved performance in terms of pose accuracy compared to state-of-the-art methods. Our experiments indicate that robust and accurate pose tracking leveraging visuo-tactile information enables robots to perceive and interact with unseen complex articulated objects (with revolute or prismatic joints).
- Abstract(参考訳): 現実世界の環境で動作しているロボットは、ドア、引き出し、キャビネット、ツールといった複雑な構造を持つ未知の物体に頻繁に遭遇する。
これらの物体を、その幾何学的特性や運動学的な性質に関する事前の知識なしに知覚し、追跡し、操作する能力は、ロボット工学における根本的な課題である。
本研究では,ロボット操作において,物体の形状や力学に関する事前の知識を前提とせずに,視認できない物体(単体,複数体,あるいは調音)のビジュオ触覚に基づく追跡手法を提案する。
ArtReg(Articulated Registrationのスタンド)と呼ばれる新しいポーズ追跡手法は、点クラウド登録のためのSE(3) Lie Groupにおける無意味カルマンフィルタの定式化において、ビジュオ触点雲を統合する。
ArtRegは、2ボットチームとのプッシュやホールド・プーリングなどの操作を意図的に行うことで、オブジェクト内の関節の可能な関節を検出するために使用される。
さらに,ArtRegを利用して,対象物を所望のポーズ設定に移動させるために,目標駆動操作のための閉ループコントローラを開発する。
我々は,実際のロボット実験を通じて,様々な種類の未知物体に対するアプローチを広く評価してきた。
また,物体の重心,低照度条件,難解な視覚的背景を有する物体の評価により,本手法の頑健さを実証した。
さらに,本手法を定式化オブジェクトの標準データセットにベンチマークし,最先端手法と比較してポーズ精度の向上を図った。
我々の実験は、ビジュオ触覚情報を利用したロバストで正確なポーズトラッキングにより、ロボットは見えない複雑な関節のある物体を知覚し、相互作用することができることを示唆している。
関連論文リスト
- Object Pose Estimation through Dexterous Touch [27.99244228962149]
本手法では,ロボットハンドを積極的に制御し,物体と対話する。
本手法は,物体表面を積極的に探索し,物体の形状を事前に知ることなく重要なポーズ特徴を識別できることを実証する。
論文 参考訳(メタデータ) (2025-09-16T23:25:05Z) - ScrewSplat: An End-to-End Method for Articulated Object Recognition [11.498029485126045]
ScrewSplatは単純なエンドツーエンドの手法で、RGB観測のみで動作する。
提案手法は,多種多様な対象物に対して,最先端の認識精度を達成できることを実証する。
論文 参考訳(メタデータ) (2025-08-04T07:45:31Z) - Learning Video Generation for Robotic Manipulation with Collaborative Trajectory Control [72.00655365269]
本稿では,協調的軌跡定式化を通じてオブジェクト間ダイナミクスをモデル化する新しいフレームワークであるRoboMasterを紹介する。
オブジェクトを分解する従来の方法とは異なり、我々のコアは、相互作用プロセスを3つのサブステージ(相互作用前、相互作用後、相互作用後)に分解することである。
提案手法は既存の手法よりも優れており,ロボット操作のための軌道制御ビデオ生成における最先端性能を確立している。
論文 参考訳(メタデータ) (2025-06-02T17:57:06Z) - Articulated Object Manipulation using Online Axis Estimation with SAM2-Based Tracking [57.942404069484134]
アーティキュレートされたオブジェクト操作は、オブジェクトの軸を慎重に考慮する必要がある、正確なオブジェクトインタラクションを必要とする。
従来の研究では、対話的な知覚を用いて関節のある物体を操作するが、通常、オープンループのアプローチは相互作用のダイナミクスを見渡すことに悩まされる。
本稿では,対話的知覚と3次元点雲からのオンライン軸推定を統合したクローズドループパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-24T17:59:56Z) - 3D Foundation Models Enable Simultaneous Geometry and Pose Estimation of Grasped Objects [13.58353565350936]
本研究では,ロボットが把握した物体の形状と姿勢を共同で推定する手法を提案する。
提案手法は,推定幾何をロボットの座標フレームに変換する。
我々は,実世界の多様な物体の集合を保持するロボットマニピュレータに対する我々のアプローチを実証的に評価した。
論文 参考訳(メタデータ) (2024-07-14T21:02:55Z) - RPMArt: Towards Robust Perception and Manipulation for Articulated Objects [56.73978941406907]
本稿では,Articulated Objects (RPMArt) のロバスト知覚と操作のためのフレームワークを提案する。
RPMArtは、調音パラメータを推定し、雑音の多い点雲から調音部分を操作することを学習する。
我々は,シミュレート・トゥ・リアル・トランスファーの能力を高めるための調音認識型分類手法を提案する。
論文 参考訳(メタデータ) (2024-03-24T05:55:39Z) - InterTracker: Discovering and Tracking General Objects Interacting with
Hands in the Wild [40.489171608114574]
既存の方法は相互作用する物体を見つけるためにフレームベースの検出器に依存している。
本稿では,対話オブジェクトの追跡に手動オブジェクトのインタラクションを活用することを提案する。
提案手法は最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2023-08-06T09:09:17Z) - Object Detection and Pose Estimation from RGB and Depth Data for
Real-time, Adaptive Robotic Grasping [0.0]
動的ロボットの把握を目的として,リアルタイム物体検出とポーズ推定を行うシステムを提案する。
提案されたアプローチは、ロボットが物体のアイデンティティとその実際のポーズを検出し、新しいポーズで使用するために正準の把握を適応させることを可能にする。
訓練のためのシステムは、ロボットの手首に取り付けられたグリッパーに対する対象の相対的な姿勢を捉えることで、標準的な把握を定義する。
テスト中、新しいポーズが検出されると、物体の正準的な把握が識別され、ロボットアームの関節角度を調整して動的に適応されます。
論文 参考訳(メタデータ) (2021-01-18T22:22:47Z) - "What's This?" -- Learning to Segment Unknown Objects from Manipulation
Sequences [27.915309216800125]
本稿では,ロボットマニピュレータを用いた自己教師型把握対象セグメンテーションのための新しいフレームワークを提案する。
本稿では,モーションキューとセマンティック知識を共同で組み込んだ,エンドツーエンドのトレーニング可能な単一アーキテクチャを提案する。
我々の手法は、運動ロボットや3Dオブジェクトモデルの視覚的登録にも、正確な手眼の校正や追加センサーデータにも依存しない。
論文 参考訳(メタデータ) (2020-11-06T10:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。