論文の概要: Single View Metrology in the Wild
- arxiv url: http://arxiv.org/abs/2007.09529v3
- Date: Tue, 23 Feb 2021 05:40:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 06:02:18.143872
- Title: Single View Metrology in the Wild
- Title(参考訳): 野生の単眼メトロロジー
- Authors: Rui Zhu, Xingyi Yang, Yannick Hold-Geoffroy, Federico Perazzi,
Jonathan Eisenmann, Kalyan Sunkavalli, Manmohan Chandraker
- Abstract要約: 本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
- 参考スコア(独自算出の注目度): 94.7005246862618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most 3D reconstruction methods may only recover scene properties up to a
global scale ambiguity. We present a novel approach to single view metrology
that can recover the absolute scale of a scene represented by 3D heights of
objects or camera height above the ground as well as camera parameters of
orientation and field of view, using just a monocular image acquired in
unconstrained condition. Our method relies on data-driven priors learned by a
deep network specifically designed to imbibe weakly supervised constraints from
the interplay of the unknown camera with 3D entities such as object heights,
through estimation of bounding box projections. We leverage categorical priors
for objects such as humans or cars that commonly occur in natural images, as
references for scale estimation. We demonstrate state-of-the-art qualitative
and quantitative results on several datasets as well as applications including
virtual object insertion. Furthermore, the perceptual quality of our outputs is
validated by a user study.
- Abstract(参考訳): 大部分の3次元再構成手法は、世界規模の曖昧さまでしかシーン特性を回復できない。
本研究では,物体の3次元の高さやカメラの高さで表されるシーンの絶対スケールを,無拘束条件で取得した単眼画像のみを用いて,方位や視野のカメラパラメータとともに復元する,新しい手法を提案する。
提案手法は,未知のカメラと物体の高さなどの3dエンティティとの相互作用から,境界ボックス投影の推定を通じて,弱い制約を補うように設計された深層ネットワークによって学習されるデータ駆動前処理に依存する。
我々は、自然画像によく現れる人間や車などの物体の分類的先行を、スケール推定の基準として活用する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
さらに,ユーザ調査により,出力の知覚的品質を検証した。
関連論文リスト
- LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - 3D-Aware Hypothesis & Verification for Generalizable Relative Object
Pose Estimation [69.73691477825079]
一般化可能なオブジェクトポーズ推定の問題に対処する新しい仮説検証フレームワークを提案する。
信頼性を計測するために,2つの入力画像から学習した3次元オブジェクト表現に3次元変換を明示的に適用する3D認識検証を導入する。
論文 参考訳(メタデータ) (2023-10-05T13:34:07Z) - Decaf: Monocular Deformation Capture for Face and Hand Interactions [77.75726740605748]
本稿では,単眼のRGBビデオから人間の顔と対話する人間の手を3Dで追跡する手法を提案する。
動作中の非剛性面の変形を誘発する定形物体として手をモデル化する。
本手法は,マーカーレスマルチビューカメラシステムで取得した現実的な顔変形を伴う手動・インタラクションキャプチャーデータセットに頼っている。
論文 参考訳(メタデータ) (2023-09-28T17:59:51Z) - 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - 3D Object Aided Self-Supervised Monocular Depth Estimation [5.579605877061333]
本研究では,モノクロ3次元物体検出による動的物体の動きに対処する新しい手法を提案する。
具体的には、まず画像中の3Dオブジェクトを検出し、検出されたオブジェクトのポーズと動的ピクセル間の対応性を構築する。
このようにして、各ピクセルの深さは有意義な幾何学モデルによって学習することができる。
論文 参考訳(メタデータ) (2022-12-04T08:52:33Z) - State of the Art in Dense Monocular Non-Rigid 3D Reconstruction [100.9586977875698]
モノクル2D画像から変形可能なシーン(または非剛体)の3D再構成は、コンピュータビジョンとグラフィックスの長年、活発に研究されてきた領域である。
本研究は,モノクラー映像やモノクラービューの集合から,様々な変形可能な物体や複合シーンを高密度に非剛性で再現するための最先端の手法に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-27T17:59:53Z) - DONet: Learning Category-Level 6D Object Pose and Size Estimation from
Depth Observation [53.55300278592281]
単一深度画像からカテゴリレベルの6次元オブジェクト・ポースとサイズ推定(COPSE)を提案する。
筆者らのフレームワークは,深度チャネルのみの物体のリッチな幾何学的情報に基づいて推論を行う。
我々のフレームワークは、ラベル付き現実世界の画像を必要とする最先端のアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-27T10:41:50Z) - Geometry-aware data augmentation for monocular 3D object detection [18.67567745336633]
本稿では,自動運転システムにおける必須モジュールの一つであるモノキュラー3次元物体検出について述べる。
重要な課題は、深さ回復問題は単眼データに不備があることです。
我々は,既存の手法が,異なる幾何学的シフトが発生した場合の深さをロバストに推定できないことを明らかにするために,詳細な解析を行う。
上記の操作を,対応する4つの3D対応データ拡張手法に変換する。
論文 参考訳(メタデータ) (2021-04-12T23:12:48Z) - A Review on Object Pose Recovery: from 3D Bounding Box Detectors to Full
6D Pose Estimators [40.049600223903546]
本稿では,オブジェクトポーズ回復手法の総合的および最新のレビューについて紹介する。
それらの手法は、問題を分類、回帰、分類と回帰、テンプレートマッチング、ポイントペア特徴マッチングタスクとして数学的にモデル化する。
論文 参考訳(メタデータ) (2020-01-28T22:05:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。