論文の概要: DepthP+P: Metric Accurate Monocular Depth Estimation using Planar and
Parallax
- arxiv url: http://arxiv.org/abs/2301.02092v1
- Date: Thu, 5 Jan 2023 14:53:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 14:19:54.693687
- Title: DepthP+P: Metric Accurate Monocular Depth Estimation using Planar and
Parallax
- Title(参考訳): depthp+p:planarとparallaxを用いた高精度単眼深度推定
- Authors: Sadra Safadoust, Fatma G\"uney
- Abstract要約: 現在の自己監督型単眼深度推定法は主に、カメラの動きを表す剛体の動きを推定することに基づいている。
本稿では,従来の平面パララックスパラダイムに従えば,メートル法で出力を推定する手法であるDepthP+Pを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current self-supervised monocular depth estimation methods are mostly based
on estimating a rigid-body motion representing camera motion. These methods
suffer from the well-known scale ambiguity problem in their predictions. We
propose DepthP+P, a method that learns to estimate outputs in metric scale by
following the traditional planar parallax paradigm. We first align the two
frames using a common ground plane which removes the effect of the rotation
component in the camera motion. With two neural networks, we predict the depth
and the camera translation, which is easier to predict alone compared to
predicting it together with rotation. By assuming a known camera height, we can
then calculate the induced 2D image motion of a 3D point and use it for
reconstructing the target image in a self-supervised monocular approach. We
perform experiments on the KITTI driving dataset and show that the planar
parallax approach, which only needs to predict camera translation, can be a
metrically accurate alternative to the current methods that rely on estimating
6DoF camera motion.
- Abstract(参考訳): 現在の自己教師付き単眼深度推定法は、主にカメラの動きを表す剛体運動の推定に基づいている。
これらの手法は、その予測においてよく知られた曖昧さの問題に苦しむ。
本稿では,従来の平面パララックスパラダイムに従えば,メートル法で出力を推定できるDepthP+Pを提案する。
まず、カメラモーションにおける回転成分の影響を除去する共通接地面を用いて、2つのフレームをアライメントする。
2つのニューラルネットワークで深度とカメラ翻訳を予測し、回転とともに予測するよりも単独で予測することが容易である。
既知のカメラ高さを仮定することで、3次元点の誘導2次元像の動きを計算し、自己教師付き単眼的アプローチで目標像を再構成する。
キティ駆動データセット上で実験を行い, カメラ翻訳の予測のみを必要とする平面視差アプローチが, 6dofカメラ動作の推定に依存する現在の手法に, メートル法的に高精度な代替手段となることを示す。
関連論文リスト
- ScaleRAFT: Cross-Scale Recurrent All-Pairs Field Transforms for 3D Motion Estimation [15.629496237910999]
本稿では,クロススケールマッチングに基づく正規化シーンフローフレームワークScaleRAFTを提案する。
本手法は,運転シナリオにおける動作推定タスクにおいて,これまでで最高の前景性能を達成している。
論文 参考訳(メタデータ) (2024-07-13T07:58:48Z) - Metric3D v2: A Versatile Monocular Geometric Foundation Model for Zero-shot Metric Depth and Surface Normal Estimation [74.28509379811084]
Metric3D v2は、ゼロショット距離深さと1枚の画像からの表面正規推定のための幾何学的基礎モデルである。
距離深度推定と表面正規度推定の両方の解を提案する。
本手法は, ランダムに収集したインターネット画像上での計測3次元構造の正確な復元を可能にする。
論文 参考訳(メタデータ) (2024-03-22T02:30:46Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Metric3D: Towards Zero-shot Metric 3D Prediction from A Single Image [85.91935485902708]
ゼロショット単視距離深度モデルの鍵は、大規模データトレーニングと様々なカメラモデルからの距離あいまいさの解消の組合せにあることを示す。
本稿では,あいまいさ問題に明示的に対処し,既存の単分子モデルにシームレスに接続可能な標準カメラ空間変換モジュールを提案する。
本手法は, ランダムに収集したインターネット画像上での計測3次元構造の正確な復元を可能にする。
論文 参考訳(メタデータ) (2023-07-20T16:14:23Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - DiffPoseNet: Direct Differentiable Camera Pose Estimation [11.941057800943653]
我々は,強靭かつ直接的な制約を強制するために,正規フロー推定のためのネットワークNFlowNetを導入する。
我々は,提案したDiffPoseNetの雑音に対する感度とデータセット間の一般化について,定性的かつ定量的に評価する。
論文 参考訳(メタデータ) (2022-03-21T17:54:30Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Beyond Weak Perspective for Monocular 3D Human Pose Estimation [6.883305568568084]
単眼映像からの3次元関節位置と方向予測の課題を考察する。
まず,市販のポーズ推定アルゴリズムを用いて2次元関節位置を推定する。
次に、初期パラメータを受信するSMPLifyアルゴリズムに準拠する。
論文 参考訳(メタデータ) (2020-09-14T16:23:14Z) - Unsupervised Learning of Camera Pose with Compositional Re-estimation [10.251550038802343]
入力ビデオシーケンスが与えられた場合、カメラのポーズ(つまりカメラの動き)を連続フレーム間で推定する。
本稿では,カメラポーズ推定のための合成再推定手法を提案する。
我々のアプローチは、予測されたカメラの動きを量的にも視覚的にも著しく改善する。
論文 参考訳(メタデータ) (2020-01-17T18:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。