論文の概要: Learning to Recover 3D Scene Shape from a Single Image
- arxiv url: http://arxiv.org/abs/2012.09365v1
- Date: Thu, 17 Dec 2020 02:35:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 07:29:05.316511
- Title: Learning to Recover 3D Scene Shape from a Single Image
- Title(参考訳): 1枚の画像から3次元シーン形状を復元する学習
- Authors: Wei Yin, Jianming Zhang, Oliver Wang, Simon Niklaus, Long Mai, Simon
Chen, Chunhua Shen
- Abstract要約: まず,未知のスケールまで深さを予測し,単一の単眼画像からシフトする2段階フレームワークを提案する。
そして、3dポイントクラウドエンコーダを使って深度シフトと焦点距離を予測し、リアルな3dシーンの形状を復元します。
- 参考スコア(独自算出の注目度): 98.20106822614392
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite significant progress in monocular depth estimation in the wild,
recent state-of-the-art methods cannot be used to recover accurate 3D scene
shape due to an unknown depth shift induced by shift-invariant reconstruction
losses used in mixed-data depth prediction training, and possible unknown
camera focal length. We investigate this problem in detail, and propose a
two-stage framework that first predicts depth up to an unknown scale and shift
from a single monocular image, and then use 3D point cloud encoders to predict
the missing depth shift and focal length that allow us to recover a realistic
3D scene shape. In addition, we propose an image-level normalized regression
loss and a normal-based geometry loss to enhance depth prediction models
trained on mixed datasets. We test our depth model on nine unseen datasets and
achieve state-of-the-art performance on zero-shot dataset generalization. Code
is available at: https://git.io/Depth
- Abstract(参考訳): 野生個体における単眼深度推定の有意な進歩にもかかわらず,混合データ深度予測訓練におけるシフト不変再構成損失と未知のカメラ焦点長による未知の深度シフトによる正確な3次元シーン形状の復元には,最近の最新手法では使用できない。
この問題を詳細に検討し,まずは未知のスケールで深度を予測し,単一の単眼画像からシフトする2段階のフレームワークを提案し,次に3Dポイント・クラウドエンコーダを用いて,現実的な3Dシーン形状を復元する。
さらに,画像レベルの正規化回帰損失と正規化幾何損失を提案し,混合データセット上で訓練された深度予測モデルを強化する。
9つの未知のデータセットで深度モデルを検証し、ゼロショットデータセットの一般化で最先端のパフォーマンスを達成する。
コードは、https://git.io/depthで入手できる。
関連論文リスト
- Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - Towards Accurate Reconstruction of 3D Scene Shape from A Single
Monocular Image [91.71077190961688]
まず、未知のスケールまで深さを予測し、単一の単眼画像からシフトする2段階のフレームワークを提案する。
次に、3Dポイントの雲のデータを利用して、奥行きの変化とカメラの焦点距離を予測し、3Dシーンの形状を復元します。
我々は9つの未知のデータセットで深度モデルを検証し、ゼロショット評価で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-28T16:20:14Z) - Towards 3D Scene Reconstruction from Locally Scale-Aligned Monocular
Video Depth [90.33296913575818]
映像深度推定や映像からの3次元シーン再構成のようなビデオベースのシナリオでは、フレームごとの予測における未知のスケールとシフトが深度の不整合を引き起こす可能性がある。
局所重み付き線形回帰法を提案する。
提案手法は,複数のゼロショットベンチマークにおいて,既存の最先端手法の性能を50%向上させることができる。
論文 参考訳(メタデータ) (2022-02-03T08:52:54Z) - Virtual Normal: Enforcing Geometric Constraints for Accurate and Robust
Depth Prediction [87.08227378010874]
深度予測における高次3次元幾何学的制約の重要性を示す。
単純な幾何学的制約を強制する損失項を設計することにより、単眼深度推定の精度とロバスト性を大幅に改善する。
The-of-the-art results of learning metric depth on NYU Depth-V2 and KITTI。
論文 参考訳(メタデータ) (2021-03-07T00:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。