論文の概要: Fit-NGP: Fitting Object Models to Neural Graphics Primitives
- arxiv url: http://arxiv.org/abs/2401.02357v1
- Date: Thu, 4 Jan 2024 16:57:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-05 14:32:23.538345
- Title: Fit-NGP: Fitting Object Models to Neural Graphics Primitives
- Title(参考訳): Fit-NGP:物体モデルをニューラルネットワークプリミティブに適合させる
- Authors: Marwan Taher, Ignacio Alzugaray, Andrew J. Davison
- Abstract要約: 本研究では, 高精度なポーズ推定法として, 最先端の高効率放射場再構成法によって生成された密度場が適していることを示す。
本稿では,手首にカメラを装着したロボットアームを用いた完全自動ポーズ推定システムを提案する。
- 参考スコア(独自算出の注目度): 19.513102875891775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate 3D object pose estimation is key to enabling many robotic
applications that involve challenging object interactions. In this work, we
show that the density field created by a state-of-the-art efficient radiance
field reconstruction method is suitable for highly accurate and robust pose
estimation for objects with known 3D models, even when they are very small and
with challenging reflective surfaces. We present a fully automatic object pose
estimation system based on a robot arm with a single wrist-mounted camera,
which can scan a scene from scratch, detect and estimate the 6-Degrees of
Freedom (DoF) poses of multiple objects within a couple of minutes of
operation. Small objects such as bolts and nuts are estimated with accuracy on
order of 1mm.
- Abstract(参考訳): 正確な3Dオブジェクトのポーズ推定は、困難なオブジェクトインタラクションを含む多くのロボットアプリケーションを実現するための鍵となる。
本研究では,3次元モデルを用いた物体の高精度かつロバストなポーズ推定に,最先端の放射場再構成法により生成された密度場が,非常に小さく,かつ反射面が困難な場合でも適していることを示す。
本研究では,ロボットアームに1台の手首搭載カメラを装着し,スクラッチからシーンをスキャンし,複数物体の6自由度ポーズ(DoF)を2分以内で検出・推定できる,完全な自動オブジェクトポーズ推定システムを提案する。
ボルトやナッツなどの小さな物体は1mmの精度で推定される。
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - 3D Foundation Models Enable Simultaneous Geometry and Pose Estimation of Grasped Objects [13.58353565350936]
本研究では,ロボットが把握した物体の形状と姿勢を共同で推定する手法を提案する。
提案手法は,推定幾何をロボットの座標フレームに変換する。
我々は,実世界の多様な物体の集合を保持するロボットマニピュレータに対する我々のアプローチを実証的に評価した。
論文 参考訳(メタデータ) (2024-07-14T21:02:55Z) - ShapeShift: Superquadric-based Object Pose Estimation for Robotic
Grasping [85.38689479346276]
現在の技術は参照3Dオブジェクトに大きく依存しており、その一般化性を制限し、新しいオブジェクトカテゴリに拡張するのにコストがかかる。
本稿では,オブジェクトに適合するプリミティブな形状に対してオブジェクトのポーズを予測する,オブジェクトのポーズ推定のためのスーパークワッドリックベースのフレームワークであるShapeShiftを提案する。
論文 参考訳(メタデータ) (2023-04-10T20:55:41Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - What's in your hands? 3D Reconstruction of Generic Objects in Hands [49.12461675219253]
我々の研究は、単一のRGB画像からハンドヘルドオブジェクトを再構築することを目的としている。
通常、既知の3Dテンプレートを仮定し、問題を3Dポーズ推定に還元する以前の作業とは対照的に、我々の作業は3Dテンプレートを知らずに汎用的なハンドヘルドオブジェクトを再構成する。
論文 参考訳(メタデータ) (2022-04-14T17:59:02Z) - 6-DoF Pose Estimation of Household Objects for Robotic Manipulation: An
Accessible Dataset and Benchmark [17.493403705281008]
本稿では,ロボット操作研究を中心に,既知の物体の6-DoFポーズ推定のための新しいデータセットを提案する。
我々は、おもちゃの食料品の3Dスキャンされたテクスチャモデルと、難解で散らかったシーンにおけるオブジェクトのRGBD画像を提供する。
半自動RGBD-to-modelテクスチャ対応を用いて、画像は数ミリ以内の精度で実証された地上の真実のポーズで注釈付けされる。
また,ADD-Hと呼ばれる新しいポーズ評価尺度を提案し,対象形状の対称性に頑健なハンガリー代入アルゴリズムについて,その明示的な列挙を必要とせず提案する。
論文 参考訳(メタデータ) (2022-03-11T01:19:04Z) - Precise Object Placement with Pose Distance Estimations for Different
Objects and Grippers [7.883179102580462]
提案手法では,複数の6次元オブジェクトのポーズをオブジェクトクラスとともに推定し,オブジェクトのポーズ推定のためのポーズ距離,オブジェクト配置のためのターゲットからのポーズ距離を推定する。
モデル知識をシステムに組み込むことにより、我々の手法は最先端のモデルフリーアプローチよりも、把握に成功率が高い。
論文 参考訳(メタデータ) (2021-10-03T12:18:59Z) - Supervised Training of Dense Object Nets using Optimal Descriptors for
Industrial Robotic Applications [57.87136703404356]
Florence、Manuelli、TedrakeによるDense Object Nets(DON)は、ロボットコミュニティのための新しいビジュアルオブジェクト表現として高密度オブジェクト記述子を導入した。
本稿では, 物体の3次元モデルを考えると, 記述子空間画像を生成することができ, DON の教師付きトレーニングが可能であることを示す。
産業用物体の6次元グリップ生成のためのトレーニング手法を比較し,新しい教師付きトレーニング手法により,産業関連タスクのピック・アンド・プレイス性能が向上することを示す。
論文 参考訳(メタデータ) (2021-02-16T11:40:12Z) - Continuous close-range 3D object pose estimation [1.4502611532302039]
視覚に基づく3Dポーズ推定は、固定位置に配置されない可能性のあるオブジェクトを正確に扱う必要がある。
本稿では,勾配近似粒子フィルタを用いた3次元ポーズ推定手法を提案する。
これにより、タスク実行中にこの手法をオンラインに適用して、貴重なサイクル時間を節約することができる。
論文 参考訳(メタデータ) (2020-10-02T07:48:17Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z) - MoreFusion: Multi-object Reasoning for 6D Pose Estimation from
Volumetric Fusion [19.034317851914725]
本稿では,複数の既知の物体の接触と隠蔽の正確なポーズを,リアルタイムな多視点視から推定するシステムを提案する。
提案手法は,1枚のRGB-Dビューからの3Dオブジェクトのポーズ提案を行い,カメラが移動すると,複数のビューからのポーズ推定と非パラメトリック占有情報を蓄積する。
提案手法の精度とロバスト性を2つのオブジェクトデータセット(YCB-Video)で実験的に検証する。
論文 参考訳(メタデータ) (2020-04-09T02:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。