論文の概要: Physics-Based Object 6D-Pose Estimation during Non-Prehensile
Manipulation
- arxiv url: http://arxiv.org/abs/2211.13572v3
- Date: Tue, 24 Oct 2023 10:32:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 03:28:31.747783
- Title: Physics-Based Object 6D-Pose Estimation during Non-Prehensile
Manipulation
- Title(参考訳): 物理ベースオブジェクト6d-pose推定法
- Authors: Zisong Xu, Rafael Papallas, Mehmet Dogar
- Abstract要約: 本研究では,物体の6次元ポーズを時間とともに追跡する手法を提案する。
ロボットジョイントコントロールを用いて、物体の動きを物理で予測する。
次に、この予測とカメラからの観測とを組み合わせて、オブジェクトのポーズをできるだけ正確に推定する。
- 参考スコア(独自算出の注目度): 3.660182910533372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method to track the 6D pose of an object over time, while the
object is under non-prehensile manipulation by a robot. At any given time
during the manipulation of the object, we assume access to the robot joint
controls and an image from a camera. We use the robot joint controls to perform
a physics-based prediction of how the object might be moving. We then combine
this prediction with the observation coming from the camera, to estimate the
object pose as accurately as possible. We use a particle filtering approach to
combine the control information with the visual information. We compare the
proposed method with two baselines: (i) using only an image-based pose
estimation system at each time-step, and (ii) a particle filter which does not
perform the computationally expensive physics predictions, but assumes the
object moves with constant velocity. Our results show that making physics-based
predictions is worth the computational cost, resulting in more accurate
tracking, and estimating object pose even when the object is not clearly
visible to the camera.
- Abstract(参考訳): 本研究では,物体の6次元姿勢を時間とともに追跡する手法を提案する。
オブジェクトの操作中にいつでも、ロボットのジョイントコントロールとカメラからのイメージへのアクセスを前提とします。
ロボットのジョイントコントロールを使って、物体の動きを物理ベースの予測します。
そして、この予測とカメラからの観測を組み合わせることで、物体のポーズを可能な限り正確に推定する。
本研究では,制御情報と視覚情報を組み合わせた粒子フィルタリング手法を提案する。
提案手法を2つのベースラインと比較する。
(i)各時間ステップでのイメージベースポーズ推定システムのみの使用、及び
(II)計算に高価な物理予測を行わない粒子フィルタであって,物体が一定の速度で動くことを仮定する。
その結果、物理ベースの予測を行うことで計算コストが上がり、より正確な追跡が可能となり、カメラに見えない物体でも物体のポーズを推定できることがわかった。
関連論文リスト
- Line-based 6-DoF Object Pose Estimation and Tracking With an Event Camera [19.204896246140155]
イベントカメラは、高いダイナミックレンジ、低レイテンシ、動きのぼけに対するレジリエンスといった顕著な特性を持っている。
イベントカメラを用いた平面オブジェクトや非平面オブジェクトに対するラインベースロバストポーズ推定と追跡手法を提案する。
論文 参考訳(メタデータ) (2024-08-06T14:36:43Z) - 3D Foundation Models Enable Simultaneous Geometry and Pose Estimation of Grasped Objects [13.58353565350936]
本研究では,ロボットが把握した物体の形状と姿勢を共同で推定する手法を提案する。
提案手法は,推定幾何をロボットの座標フレームに変換する。
我々は,実世界の多様な物体の集合を保持するロボットマニピュレータに対する我々のアプローチを実証的に評価した。
論文 参考訳(メタデータ) (2024-07-14T21:02:55Z) - LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - ShapeShift: Superquadric-based Object Pose Estimation for Robotic
Grasping [85.38689479346276]
現在の技術は参照3Dオブジェクトに大きく依存しており、その一般化性を制限し、新しいオブジェクトカテゴリに拡張するのにコストがかかる。
本稿では,オブジェクトに適合するプリミティブな形状に対してオブジェクトのポーズを予測する,オブジェクトのポーズ推定のためのスーパークワッドリックベースのフレームワークであるShapeShiftを提案する。
論文 参考訳(メタデータ) (2023-04-10T20:55:41Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - DepthP+P: Metric Accurate Monocular Depth Estimation using Planar and
Parallax [0.0]
現在の自己監督型単眼深度推定法は主に、カメラの動きを表す剛体の動きを推定することに基づいている。
本稿では,従来の平面パララックスパラダイムに従えば,メートル法で出力を推定する手法であるDepthP+Pを提案する。
論文 参考訳(メタデータ) (2023-01-05T14:53:21Z) - Ambiguity-Aware Multi-Object Pose Optimization for Visually-Assisted
Robot Manipulation [17.440729138126162]
あいまいさを意識した6Dオブジェクトポーズ推定ネットワークPrimA6D++を汎用的不確実性予測手法として提案する。
提案手法は,T-LESS と YCB-Video のデータセットの性能向上を示す。
さらに,視覚支援ロボット操作のためのリアルタイムシーン認識機能を示す。
論文 参考訳(メタデータ) (2022-11-02T08:57:20Z) - H-SAUR: Hypothesize, Simulate, Act, Update, and Repeat for Understanding
Object Articulations from Interactions [62.510951695174604]
The Hypothesize, Simulate, Act, Update, and Repeat (H-SAUR) is a probabilistic generative framework that generated hypotheses about objects articulate given input observed。
提案手法は,現在最先端のオブジェクト操作フレームワークよりも優れていることを示す。
我々は、学習に基づく視覚モデルから学習前の学習を統合することにより、H-SAURのテスト時間効率をさらに向上する。
論文 参考訳(メタデータ) (2022-10-22T18:39:33Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Occlusion resistant learning of intuitive physics from videos [52.25308231683798]
人工システムの鍵となる能力は、オブジェクト間の物理的相互作用を理解し、状況の将来的な結果を予測することである。
この能力は直感的な物理学と呼ばれ、近年注目されており、ビデオシーケンスからこれらの物理規則を学ぶためのいくつかの方法が提案されている。
論文 参考訳(メタデータ) (2020-04-30T19:35:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。