論文の概要: VA-DepthNet: A Variational Approach to Single Image Depth Prediction
- arxiv url: http://arxiv.org/abs/2302.06556v1
- Date: Mon, 13 Feb 2023 17:55:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 14:35:55.730533
- Title: VA-DepthNet: A Variational Approach to Single Image Depth Prediction
- Title(参考訳): VA-DepthNet: 単一画像深度予測への変分アプローチ
- Authors: Ce Liu, Suryansh Kumar, Shuhang Gu, Radu Timofte, Luc Van Gool
- Abstract要約: VA-DepthNetは、単一画像深度予測問題に対する単純で効果的で正確なディープニューラルネットワークアプローチである。
本論文は,複数のベンチマークデータセットに対する広範囲な評価とアブレーション解析により提案手法の有用性を実証する。
- 参考スコア(独自算出の注目度): 163.14849753700682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce VA-DepthNet, a simple, effective, and accurate deep neural
network approach for the single-image depth prediction (SIDP) problem. The
proposed approach advocates using classical first-order variational constraints
for this problem. While state-of-the-art deep neural network methods for SIDP
learn the scene depth from images in a supervised setting, they often overlook
the invaluable invariances and priors in the rigid scene space, such as the
regularity of the scene. The paper's main contribution is to reveal the benefit
of classical and well-founded variational constraints in the neural network
design for the SIDP task. It is shown that imposing first-order variational
constraints in the scene space together with popular encoder-decoder-based
network architecture design provides excellent results for the supervised SIDP
task. The imposed first-order variational constraint makes the network aware of
the depth gradient in the scene space, i.e., regularity. The paper demonstrates
the usefulness of the proposed approach via extensive evaluation and ablation
analysis over several benchmark datasets, such as KITTI, NYU Depth V2, and SUN
RGB-D. The VA-DepthNet at test time shows considerable improvements in depth
prediction accuracy compared to the prior art and is accurate also at
high-frequency regions in the scene space. At the time of writing this paper,
our method -- labeled as VA-DepthNet, when tested on the KITTI depth-prediction
evaluation set benchmarks, shows state-of-the-art results, and is the
top-performing published approach.
- Abstract(参考訳): 本稿では,単一画像深度予測(SIDP)問題に対する,シンプルで効果的かつ正確なディープニューラルネットワークアプローチであるVA-DepthNetを紹介する。
提案手法は古典的な一階変分制約をこの問題に用いている。
SIDPのための最先端のディープニューラルネットワーク手法は、監督された設定で画像からシーンの深さを学習するが、多くの場合、シーンの規則性のような厳密なシーン空間における価値ある不変性や先行性を見落としている。
この論文の主な貢献は、SIDPタスクのためのニューラルネットワーク設計における古典的および十分に確立された変動制約の利点を明らかにすることである。
シーン空間における一階変動制約とエンコーダ-デコーダベースネットワークアーキテクチャの設計は、教師付きSIDPタスクに優れた結果をもたらすことを示す。
与えられた一階変動制約により、ネットワークはシーン空間の深さ勾配、すなわち正規性を認識する。
提案手法は,KITTI,NYU Depth V2,SUN RGB-Dなどのベンチマークデータセットに対して,広範囲な評価とアブレーション解析により有用性を示す。
テスト時のVA-DepthNetは,先行技術に比べて深度予測精度が大幅に向上し,シーン空間の高周波領域でも精度が向上した。
本論文の執筆時点では,kitti depth-prediction evaluation set benchmarks上でテストしたva-depthnetと呼ばれる手法が最先端の成果を示し,最もパフォーマンスの高い公開手法である。
関連論文リスト
- A Confidence-based Iterative Solver of Depths and Surface Normals for
Deep Multi-view Stereo [41.527018997251744]
本研究では,深度,表面正規度,視野ごとの信頼度を共同で予測する深層多視点ステレオ(MVS)システムを提案する。
我々のアプローチの鍵は、ビューごとの深度マップと正規写像に対して反復的に解決する新しい解法である。
提案手法は,従来型および深層学習に基づくMVSパイプラインの深部品質を継続的に向上する。
論文 参考訳(メタデータ) (2022-01-19T14:08:45Z) - 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z) - NerfingMVS: Guided Optimization of Neural Radiance Fields for Indoor
Multi-view Stereo [97.07453889070574]
本稿では,従来のSfM再構成と学習に基づく先行手法を併用した多視点深度推定手法を提案する。
提案手法は室内シーンにおける最先端手法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-09-02T17:54:31Z) - Monocular Depth Estimation Primed by Salient Point Detection and
Normalized Hessian Loss [43.950140695759764]
本稿では,単眼深度推定のための高精度で軽量なフレームワークを提案する。
深度方向のスケーリングとせん断に不変な正規化ヘッセン損失項を導入し,精度を著しく向上させることを示した。
提案手法は,NYU-Depth-v2 と KITTI の3.1-38.4 倍小さいモデルを用いて,ベースライン手法よりもパラメータ数が多い場合の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-08-25T07:51:09Z) - PLADE-Net: Towards Pixel-Level Accuracy for Self-Supervised Single-View
Depth Estimation with Neural Positional Encoding and Distilled Matting Loss [49.66736599668501]
PLADE-Netと呼ばれる自己監視型単視点画素レベルの高精度深度推定ネットワークを提案する。
提案手法は,KITTIデータセットの$delta1$測定値の95%を超え,前例のない精度を示す。
論文 参考訳(メタデータ) (2021-03-12T15:54:46Z) - CodeVIO: Visual-Inertial Odometry with Learned Optimizable Dense Depth [83.77839773394106]
本稿では,軽量で密結合の深い深度ネットワークと視覚慣性オドメトリーシステムを提案する。
我々は、初期深度予測の精度を高めるために、以前にVIOから切り離されたスパース特徴を持つネットワークを提供する。
本稿では,ネットワークとコードヤコビアンでのみGPUアクセラレーションを活用しながら,シングルスレッド実行でリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-12-18T09:42:54Z) - Deep Semantic Matching with Foreground Detection and Cycle-Consistency [103.22976097225457]
深層ネットワークに基づく弱い教師付きセマンティックマッチングに対処する。
本研究では,背景乱れの影響を抑えるために,前景領域を明示的に推定する。
複数の画像にまたがって予測変換を強制し、幾何的に可視かつ一貫したサイクル一貫性の損失を発生させる。
論文 参考訳(メタデータ) (2020-03-31T22:38:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。