論文の概要: DRACO: Weakly Supervised Dense Reconstruction And Canonicalization of
Objects
- arxiv url: http://arxiv.org/abs/2011.12912v1
- Date: Wed, 25 Nov 2020 17:50:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 02:20:10.037989
- Title: DRACO: Weakly Supervised Dense Reconstruction And Canonicalization of
Objects
- Title(参考訳): DRACO:弱めに監視された高密度再構築と物体の正準化
- Authors: Rahul Sajnani, AadilMehdi Sanchawala, Krishna Murthy Jatavallabhula,
Srinath Sridhar, K. Madhava Krishna
- Abstract要約: DRACOは1つ以上のRGB画像からオブジェクト形状のDense Reconstruction and Canonicalizationの手法である。
座標空間における3次元物体の形状を、スケール、回転、翻訳パラメータとして推定する正準形状再構成は、様々なロボット応用の約束を果たす新しいパラダイムである。
- 参考スコア(独自算出の注目度): 19.718769778144154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present DRACO, a method for Dense Reconstruction And Canonicalization of
Object shape from one or more RGB images. Canonical shape reconstruction,
estimating 3D object shape in a coordinate space canonicalized for scale,
rotation, and translation parameters, is an emerging paradigm that holds
promise for a multitude of robotic applications. Prior approaches either rely
on painstakingly gathered dense 3D supervision, or produce only sparse
canonical representations, limiting real-world applicability. DRACO performs
dense canonicalization using only weak supervision in the form of camera poses
and semantic keypoints at train time. During inference, DRACO predicts dense
object-centric depth maps in a canonical coordinate-space, solely using one or
more RGB images of an object. Extensive experiments on canonical shape
reconstruction and pose estimation show that DRACO is competitive or superior
to fully-supervised methods.
- Abstract(参考訳): DRACO(Dense Reconstruction and Canonicalization of Object shape of one or more RGB image)を提案する。
座標空間における3次元物体の形状を、スケール、回転、翻訳パラメータとして推定する正準形状再構成は、多数のロボット応用を約束する新しいパラダイムである。
従来のアプローチでは、密集した密集した3d監督に頼るか、あるいはまばらな正準表現しか生成せず、現実世界の適用性を制限するかのどちらかだった。
DRACOは、列車時のカメラポーズとセマンティックキーポイントの形で、弱い監督のみを使用して、密集した正準化を行う。
推論中、DRACOは、オブジェクトの1つ以上のRGB画像のみを使用して、標準座標空間内の高密度なオブジェクト中心の深度マップを予測する。
標準形状の復元とポーズ推定に関する大規模な実験は、DRACOが完全に監督された手法よりも競争力があるか優れていることを示している。
関連論文リスト
- Object Gaussian for Monocular 6D Pose Estimation from Sparse Views [4.290993205307184]
ガウス的手法を用いたスパースビューオブジェクトポーズ推定のための新しいフレームワークであるSGPoseを紹介する。
最大10ビューを与えられたSGPoseは、ランダムな立方体から始めることで幾何学的認識表現を生成する。
典型的なベンチマーク、特にOcclusion LM-Oデータセットの実験では、SGPoseはスパースビューの制約下であっても既存のメソッドよりも優れていることを示した。
論文 参考訳(メタデータ) (2024-09-04T10:03:11Z) - $PC^2$: Projection-Conditioned Point Cloud Diffusion for Single-Image 3D
Reconstruction [97.06927852165464]
単一のRGB画像から物体の3次元形状を再構築することは、コンピュータビジョンにおける長年の課題である。
条件付き偏光拡散プロセスによりスパース点雲を生成する単一像3次元再構成法を提案する。
論文 参考訳(メタデータ) (2023-02-21T13:37:07Z) - Generative Category-Level Shape and Pose Estimation with Semantic
Primitives [27.692997522812615]
本稿では,1枚のRGB-D画像からカテゴリレベルのオブジェクト形状とポーズ推定を行う新しいフレームワークを提案する。
カテゴリ内変動に対処するために、様々な形状を統一された潜在空間にエンコードするセマンティックプリミティブ表現を採用する。
提案手法は,実世界のデータセットにおいて,SOTAのポーズ推定性能とより優れた一般化を実現する。
論文 参考訳(メタデータ) (2022-10-03T17:51:54Z) - ConDor: Self-Supervised Canonicalization of 3D Pose for Partial Shapes [55.689763519293464]
ConDorは、完全および部分的な3次元点雲の3次元配向と位置を正準化することを学ぶ自己教師型手法である。
推測中,本手法は任意のポーズで完全あるいは部分的な3次元点の雲を抽出し,同変正則のポーズを出力する。
論文 参考訳(メタデータ) (2022-01-19T18:57:21Z) - Category-Level Metric Scale Object Shape and Pose Estimation [73.92460712829188]
本稿では,測度スケールの形状と1枚のRGB画像からのポーズを共同で推定するフレームワークを提案する。
カテゴリーレベルのオブジェクトのポーズと形状を評価するために,合成と実世界の両方のデータセット上で本手法の有効性を検証した。
論文 参考訳(メタデータ) (2021-09-01T12:16:46Z) - Disentangled Implicit Shape and Pose Learning for Scalable 6D Pose
Estimation [44.8872454995923]
単一オートエンコーダを用いた複数オブジェクトの合成データに対する自己教師付き学習により,スケーラブルな6次元ポーズ推定のための新しい手法を提案する。
提案手法は,T-LESS と NOCS REAL275 という実データを持つ2つのマルチオブジェクトベンチマークで検証し,ポーズ推定精度と一般化の点で既存の RGB 法より優れていることを示す。
論文 参考訳(メタデータ) (2021-07-27T01:55:30Z) - From Points to Multi-Object 3D Reconstruction [71.17445805257196]
単一のRGB画像から複数の3Dオブジェクトを検出し再構成する方法を提案する。
キーポイント検出器は、オブジェクトを中心点としてローカライズし、9-DoF境界ボックスや3D形状を含む全てのオブジェクト特性を直接予測する。
提示されたアプローチは、軽量な再構築を単一ステージで実行し、リアルタイム能力を持ち、完全に微分可能で、エンドツーエンドのトレーナーブルである。
論文 参考訳(メタデータ) (2020-12-21T18:52:21Z) - Canonical 3D Deformer Maps: Unifying parametric and non-parametric
methods for dense weakly-supervised category reconstruction [79.98689027127855]
独立オブジェクトの2次元画像の集合から学習できる共通オブジェクトカテゴリの3次元形状の表現を提案する。
提案手法は, パラメトリック変形モデル, 非パラメトリック3次元再構成, 標準埋め込みの概念に基づく新しい手法で構築する。
顔、車、鳥の野生のデータセットを3Dで再現することで、最先端の成果が得られます。
論文 参考訳(メタデータ) (2020-08-28T15:44:05Z) - UCLID-Net: Single View Reconstruction in Object Space [60.046383053211215]
三次元潜在空間を保存する幾何学的空間の構築は,オブジェクト座標空間における大域的形状規則性と局所的推論を同時に学習する上で有効であることを示す。
ベンチマーク目的でよく使用されるShapeNet合成画像と、我々のアプローチが最先端の画像より優れている実世界の画像の両方を実証する。
論文 参考訳(メタデータ) (2020-06-06T09:15:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。