論文の概要: Single Image Depth Prediction Made Better: A Multivariate Gaussian Take
- arxiv url: http://arxiv.org/abs/2303.18164v2
- Date: Tue, 18 Apr 2023 08:52:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 17:18:41.709783
- Title: Single Image Depth Prediction Made Better: A Multivariate Gaussian Take
- Title(参考訳): 多変量ガウシアンによる単一画像深度予測の精度向上
- Authors: Ce Liu, Suryansh Kumar, Shuhang Gu, Radu Timofte, Luc Van Gool
- Abstract要約: 本稿では,画素ごとの深度を連続的にモデル化する手法を提案する。
提案手法の精度(MG)は,KITTI深度予測ベンチマークリーダーボードの上位に位置する。
- 参考スコア(独自算出の注目度): 163.14849753700682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural-network-based single image depth prediction (SIDP) is a challenging
task where the goal is to predict the scene's per-pixel depth at test time.
Since the problem, by definition, is ill-posed, the fundamental goal is to come
up with an approach that can reliably model the scene depth from a set of
training examples. In the pursuit of perfect depth estimation, most existing
state-of-the-art learning techniques predict a single scalar depth value
per-pixel. Yet, it is well-known that the trained model has accuracy limits and
can predict imprecise depth. Therefore, an SIDP approach must be mindful of the
expected depth variations in the model's prediction at test time. Accordingly,
we introduce an approach that performs continuous modeling of per-pixel depth,
where we can predict and reason about the per-pixel depth and its distribution.
To this end, we model per-pixel scene depth using a multivariate Gaussian
distribution. Moreover, contrary to the existing uncertainty modeling methods
-- in the same spirit, where per-pixel depth is assumed to be independent, we
introduce per-pixel covariance modeling that encodes its depth dependency w.r.t
all the scene points. Unfortunately, per-pixel depth covariance modeling leads
to a computationally expensive continuous loss function, which we solve
efficiently using the learned low-rank approximation of the overall covariance
matrix. Notably, when tested on benchmark datasets such as KITTI, NYU, and
SUN-RGB-D, the SIDP model obtained by optimizing our loss function shows
state-of-the-art results. Our method's accuracy (named MG) is among the top on
the KITTI depth-prediction benchmark leaderboard.
- Abstract(参考訳): ニューラルネットワークベースの単一画像深度予測(SIDP)は、テスト時にシーン毎の深度を予測することが目的の課題である。
問題は、定義上不適切であるため、基本的な目標は、一連のトレーニング例からシーンの深さを確実にモデル化できるアプローチを考案することだ。
完全深度推定の追求において、既存の最先端学習技術は1ピクセルあたりのスカラー深度値を予測している。
しかし、訓練されたモデルは精度の限界があり、不正確な深さを予測できることはよく知られている。
したがって、SIDPアプローチは、テスト時間におけるモデルの予測における予測深度の変化に注意する必要がある。
そこで我々は,画素ごとの深度と分布の予測と推論が可能な,画素ごとの深度を連続的にモデル化する手法を提案する。
この目的のために,多変量ガウス分布を用いた画素ごとのシーン深度をモデル化する。
さらに,既存の不確実性モデリング手法とは対照的に,ピクセル単位の深さが独立と仮定される同じ精神において,その深さ依存性を符号化する画素単位の共分散モデリングを導入する。
残念なことに、画素ごとの深度共分散モデリングは計算コストのかかる連続損失関数を導いており、これは学習した全共分散行列の低ランク近似を用いて効率よく解決する。
特に、KITTI、NYU、SUN-RGB-Dなどのベンチマークデータセットでテストすると、損失関数を最適化したSIDPモデルは最先端の結果を示す。
提案手法の精度(MG)は,KITTI深度予測ベンチマークリーダーボードの上位に位置する。
関連論文リスト
- Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - Gradient-based Uncertainty for Monocular Depth Estimation [5.7575052885308455]
単眼深度推定では、移動物体や反射材料のような画像コンテキストの乱れは、容易に誤った予測につながる。
本稿では,すでに訓練済みで固定された深度推定モデルに対するポストホック不確実性推定手法を提案する。
提案手法は,ニューラルネットワークの再トレーニングを必要とせずに,KITTI と NYU Depth V2 ベンチマークにおける最先端の不確実性推定結果を実現する。
論文 参考訳(メタデータ) (2022-08-03T12:21:02Z) - RA-Depth: Resolution Adaptive Self-Supervised Monocular Depth Estimation [27.679479140943503]
本研究では,シーン深さのスケール不変性を学習し,自己教師付き単眼深度推定法(RA-Depth)を提案する。
RA-Depthは最先端の性能を達成し、解像度適応の優れた能力を示す。
論文 参考訳(メタデータ) (2022-07-25T08:49:59Z) - End-to-end Learning for Joint Depth and Image Reconstruction from
Diffracted Rotation [10.896567381206715]
回折回転から深度を学習する新しいエンド・ツー・エンド学習手法を提案する。
提案手法は, 単分子深度推定のタスクにおいて既存の手法よりもはるかに少ない複雑なモデルと少ないトレーニングデータを必要とする。
論文 参考訳(メタデータ) (2022-04-14T16:14:37Z) - PDC-Net+: Enhanced Probabilistic Dense Correspondence Network [161.76275845530964]
高度確率密度対応ネットワーク(PDC-Net+)は、精度の高い高密度対応を推定できる。
我々は、堅牢で一般化可能な不確実性予測に適したアーキテクチャと強化されたトレーニング戦略を開発する。
提案手法は,複数の挑戦的幾何マッチングと光学的フローデータセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-09-28T17:56:41Z) - PLADE-Net: Towards Pixel-Level Accuracy for Self-Supervised Single-View
Depth Estimation with Neural Positional Encoding and Distilled Matting Loss [49.66736599668501]
PLADE-Netと呼ばれる自己監視型単視点画素レベルの高精度深度推定ネットワークを提案する。
提案手法は,KITTIデータセットの$delta1$測定値の95%を超え,前例のない精度を示す。
論文 参考訳(メタデータ) (2021-03-12T15:54:46Z) - Learning Accurate Dense Correspondences and When to Trust Them [161.76275845530964]
2つの画像に関連する密度の高い流れ場と、堅牢な画素方向の信頼度マップの推定を目指しています。
フロー予測とその不確実性を共同で学習するフレキシブルな確率的アプローチを開発する。
本手法は,幾何学的マッチングと光フローデータセットに挑戦する最新の結果を得る。
論文 参考訳(メタデータ) (2021-01-05T18:54:11Z) - Dual Pixel Exploration: Simultaneous Depth Estimation and Image
Restoration [77.1056200937214]
本研究では,ぼかしと深度情報をリンクするDPペアの形成について検討する。
本稿では,画像の深さを共同で推定し,復元するためのエンドツーエンドDDDNet(DPベースのDepth and De Network)を提案する。
論文 参考訳(メタデータ) (2020-12-01T06:53:57Z) - Variational Monocular Depth Estimation for Reliability Prediction [12.951621755732544]
教師付き学習手法の代替として,単眼深度推定のための自己教師付き学習が広く研究されている。
従来はモデル構造の変更による深度推定の精度向上に成功している。
本稿では, 単眼深度推定のための変分モデルを理論的に定式化し, 推定深度画像の信頼性を推定する。
論文 参考訳(メタデータ) (2020-11-24T06:23:51Z) - AcED: Accurate and Edge-consistent Monocular Depth Estimation [0.0]
単一画像深度推定は難しい問題である。
完全に微分可能な順序回帰を定式化し、エンドツーエンドでネットワークを訓練する。
深度補正のための画素ごとの信頼度マップ計算も提案した。
論文 参考訳(メタデータ) (2020-06-16T15:21:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。