論文の概要: Object Pose Estimation through Dexterous Touch
- arxiv url: http://arxiv.org/abs/2509.13591v1
- Date: Tue, 16 Sep 2025 23:25:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.673376
- Title: Object Pose Estimation through Dexterous Touch
- Title(参考訳): ディクサラスタッチによるオブジェクトポス推定
- Authors: Amir-Hossein Shahidzadeh, Jiyue Zhu, Kezhou Chen, Sha Yi, Cornelia Fermüller, Yiannis Aloimonos, Xiaolong Wang,
- Abstract要約: 本手法では,ロボットハンドを積極的に制御し,物体と対話する。
本手法は,物体表面を積極的に探索し,物体の形状を事前に知ることなく重要なポーズ特徴を識別できることを実証する。
- 参考スコア(独自算出の注目度): 27.99244228962149
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robust object pose estimation is essential for manipulation and interaction tasks in robotics, particularly in scenarios where visual data is limited or sensitive to lighting, occlusions, and appearances. Tactile sensors often offer limited and local contact information, making it challenging to reconstruct the pose from partial data. Our approach uses sensorimotor exploration to actively control a robot hand to interact with the object. We train with Reinforcement Learning (RL) to explore and collect tactile data. The collected 3D point clouds are used to iteratively refine the object's shape and pose. In our setup, one hand holds the object steady while the other performs active exploration. We show that our method can actively explore an object's surface to identify critical pose features without prior knowledge of the object's geometry. Supplementary material and more demonstrations will be provided at https://amirshahid.github.io/BimanualTactilePose .
- Abstract(参考訳): ロバストオブジェクトのポーズ推定は、特に視覚データが照明、閉塞、外見に制限または敏感なシナリオにおいて、ロボット工学における操作と相互作用のタスクに不可欠である。
触覚センサーはしばしば限定的かつ局所的な接触情報を提供しており、部分的なデータからポーズを再構築することは困難である。
本手法では,ロボットハンドを積極的に制御し,物体と対話する。
私たちはReinforcement Learning (RL)を使って、触覚データの探索と収集をトレーニングします。
収集された3Dポイントの雲は、オブジェクトの形状とポーズを反復的に洗練するために使用される。
我々の設定では、一方の手が物体を安定させ、もう一方の手が活発な探索を行う。
本手法は,物体表面を積極的に探索し,物体形状の事前知識を必要とせずに重要なポーズ特徴を識別できることを示す。
追加資料とさらに多くのデモがhttps://amirshahid.github.io/BimanualTactilePose.orgで公開される。
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - Articulated Object Manipulation using Online Axis Estimation with SAM2-Based Tracking [57.942404069484134]
アーティキュレートされたオブジェクト操作は、オブジェクトの軸を慎重に考慮する必要がある、正確なオブジェクトインタラクションを必要とする。
従来の研究では、対話的な知覚を用いて関節のある物体を操作するが、通常、オープンループのアプローチは相互作用のダイナミクスを見渡すことに悩まされる。
本稿では,対話的知覚と3次元点雲からのオンライン軸推定を統合したクローズドループパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-24T17:59:56Z) - AcTExplore: Active Tactile Exploration of Unknown Objects [17.755567328263847]
本稿では, 大規模オブジェクト再構成のための強化学習による能動的触覚探索手法であるAcTExploreを提案する。
本アルゴリズムは, 触覚データを段階的に収集し, 物体の3次元形状を再構築する。
本手法は, 未確認のYCBオブジェクトに対して平均95.97%のIoUカバレッジを達成し, 原始形状でのみ訓練する。
論文 参考訳(メタデータ) (2023-10-12T22:15:06Z) - InterTracker: Discovering and Tracking General Objects Interacting with
Hands in the Wild [40.489171608114574]
既存の方法は相互作用する物体を見つけるためにフレームベースの検出器に依存している。
本稿では,対話オブジェクトの追跡に手動オブジェクトのインタラクションを活用することを提案する。
提案手法は最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2023-08-06T09:09:17Z) - TactoFind: A Tactile Only System for Object Retrieval [14.732140705441992]
視覚感覚が欠如しているシナリオにおけるオブジェクト検索の問題について検討する。
カメラがシーン全体を観察できる視覚とは異なり、タッチセンサーは局所的であり、マニピュレータに接触しているシーンの一部のみを観察する。
本稿では,指先触覚センサによる触覚フィードバックを,視覚的フィードバックを伴わずに,新たな物体の局所化,識別,把握を行うシステムを提案する。
論文 参考訳(メタデータ) (2023-03-23T17:50:09Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - Active 3D Shape Reconstruction from Vision and Touch [66.08432412497443]
人間は、視覚と触覚を共同で利用して、活発な物体探索を通じて世界の3D理解を構築する。
3次元形状の再構成では、最新の進歩はRGB画像、深度マップ、触覚読影などの限られた感覚データの静的データセットに依存している。
1)高空間分解能視覚に基づく触覚センサを応用した3次元物体のアクティブタッチに活用した触覚シミュレータ,2)触覚やビジュオクティビティルを先導するメッシュベースの3次元形状再構成モデル,3)触覚やビジュオのいずれかを用いたデータ駆動型ソリューションのセットからなるシステムを導入する。
論文 参考訳(メタデータ) (2021-07-20T15:56:52Z) - Object Detection and Pose Estimation from RGB and Depth Data for
Real-time, Adaptive Robotic Grasping [0.0]
動的ロボットの把握を目的として,リアルタイム物体検出とポーズ推定を行うシステムを提案する。
提案されたアプローチは、ロボットが物体のアイデンティティとその実際のポーズを検出し、新しいポーズで使用するために正準の把握を適応させることを可能にする。
訓練のためのシステムは、ロボットの手首に取り付けられたグリッパーに対する対象の相対的な姿勢を捉えることで、標準的な把握を定義する。
テスト中、新しいポーズが検出されると、物体の正準的な把握が識別され、ロボットアームの関節角度を調整して動的に適応されます。
論文 参考訳(メタデータ) (2021-01-18T22:22:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。