論文の概要: A Benchmark and a Baseline for Robust Multi-view Depth Estimation
- arxiv url: http://arxiv.org/abs/2209.06681v1
- Date: Tue, 13 Sep 2022 17:44:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 13:38:44.500973
- Title: A Benchmark and a Baseline for Robust Multi-view Depth Estimation
- Title(参考訳): ロバスト多視点深度推定のためのベンチマークとベースライン
- Authors: Philipp Schr\"oppel and Jan Bechtold and Artemij Amiranashvili and
Thomas Brox
- Abstract要約: 多視点深度推定のためのディープラーニングアプローチは、ビデオからの深度推定または多視点ステレオ設定に使用される。
本稿では,公開データセット上に構築されたRobust Multi-View Depth Benchmarkを紹介する。
この設定では、最近のアプローチはデータセットをまたいだ一般化はしない。
本稿では,既存コンポーネント上に構築されている新しいスケール拡張手法を用いて,マルチビュー深度推定のためのロバストMVDベースラインモデルを提案する。
- 参考スコア(独自算出の注目度): 36.02034260946296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent deep learning approaches for multi-view depth estimation are employed
either in a depth-from-video or a multi-view stereo setting. Despite different
settings, these approaches are technically similar: they correlate multiple
source views with a keyview to estimate a depth map for the keyview. In this
work, we introduce the Robust Multi-View Depth Benchmark that is built upon a
set of public datasets and allows evaluation in both settings on data from
different domains. We evaluate recent approaches and find imbalanced
performances across domains. Further, we consider a third setting, where camera
poses are available and the objective is to estimate the corresponding depth
maps with their correct scale. We show that recent approaches do not generalize
across datasets in this setting. This is because their cost volume output runs
out of distribution. To resolve this, we present the Robust MVD Baseline model
for multi-view depth estimation, which is built upon existing components but
employs a novel scale augmentation procedure. It can be applied for robust
multi-view depth estimation, independent of the target data. We provide code
for the proposed benchmark and baseline model at
https://github.com/lmb-freiburg/robustmvd.
- Abstract(参考訳): 近年の多視点深度推定のための深度学習手法は,ビデオからの深度推定と多視点ステレオ設定に採用されている。
異なる設定にもかかわらず、これらのアプローチは技術的に類似している。複数のソースビューとキービューを関連付け、キービューの深さマップを推定する。
本研究では,公開データセットを基盤としたロバストなマルチビュー深度ベンチマークを導入し,異なるドメインのデータに対して,両方の設定で評価を行う。
我々は最近のアプローチを評価し、ドメイン間の不均衡なパフォーマンスを見出す。
さらに、カメラポーズが利用可能で、対応する深度マップを正確なスケールで推定することを目的とした第3の設定を考える。
この設定では、最近のアプローチはデータセット全体にわたって一般化されない。
これは、コストボリュームのアウトプットが分散しなくなったためです。
これを解決するために,既存のコンポーネント上に構築されている新しいスケール拡張手法を用いたマルチビュー深度推定のためのロバストMVDベースラインモデルを提案する。
ターゲットデータとは独立に、堅牢なマルチビュー深度推定に適用することができる。
提案するベンチマークとベースラインモデルのコードは、https://github.com/lmb-freiburg/robustmvd.com/で提供します。
関連論文リスト
- ScaleDepth: Decomposing Metric Depth Estimation into Scale Prediction and Relative Depth Estimation [62.600382533322325]
本研究では,新しい単分子深度推定法であるScaleDepthを提案する。
提案手法は,距離深度をシーンスケールと相対深度に分解し,セマンティック・アウェア・スケール予測モジュールを用いて予測する。
本手法は,室内と屋外の両方のシーンを統一した枠組みで距離推定する。
論文 参考訳(メタデータ) (2024-07-11T05:11:56Z) - ARAI-MVSNet: A multi-view stereo depth estimation network with adaptive
depth range and depth interval [19.28042366225802]
マルチビューステレオ(MVS)は幾何学的コンピュータビジョンの基本的な問題である。
適応的な全画素深度範囲と深度間隔を実現するために,新しい多段粗大化フレームワークを提案する。
我々のモデルは最先端の性能を達成し、競争一般化能力を得る。
論文 参考訳(メタデータ) (2023-08-17T14:52:11Z) - FS-Depth: Focal-and-Scale Depth Estimation from a Single Image in Unseen
Indoor Scene [57.26600120397529]
実際の(見えない)屋内シーンの単一の画像から絶対深度マップを予測するのには、長年不適切な問題だった。
本研究では,未確認屋内シーンの単一画像から絶対深度マップを正確に学習するための焦点・スケール深度推定モデルを開発した。
論文 参考訳(メタデータ) (2023-07-27T04:49:36Z) - NVDS+: Towards Efficient and Versatile Neural Stabilizer for Video Depth Estimation [58.21817572577012]
ビデオ深度推定は時間的に一貫した深度を推定することを目的としている。
プラグ・アンド・プレイ方式で様々な単一画像モデルから推定される不整合深さを安定化するNVDS+を導入する。
このデータセットには、200万フレーム以上の14,203本のビデオが含まれている。
論文 参考訳(メタデータ) (2023-07-17T17:57:01Z) - Monocular Visual-Inertial Depth Estimation [66.71452943981558]
単眼深度推定と視覚慣性計測を統合した視覚慣性深度推定パイプラインを提案する。
提案手法は, 疎度度に対する大域的スケールとシフトアライメントを行い, 続いて学習に基づく高密度アライメントを行う。
本研究では,TartanAir と VOID のデータセットを用いて,密集したスケールアライメントによるRMSE の最大30%の削減を観測した。
論文 参考訳(メタデータ) (2023-03-21T18:47:34Z) - Multi-Camera Collaborative Depth Prediction via Consistent Structure
Estimation [75.99435808648784]
本稿では,新しいマルチカメラ協調深度予測法を提案する。
カメラ間の構造的整合性を維持しながら、大きな重なり合う領域を必要としない。
DDADおよびNuScenesデータセットの実験結果から,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-05T03:44:34Z) - Multi-View Depth Estimation by Fusing Single-View Depth Probability with
Multi-View Geometry [25.003116148843525]
多視点幾何を用いて一視点深度確率を融合するフレームワークであるMaGNetを提案する。
MaGNet は ScanNet, 7-Scenes, KITTI で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2021-12-15T14:56:53Z) - Does it work outside this benchmark? Introducing the Rigid Depth
Constructor tool, depth validation dataset construction in rigid scenes for
the masses [1.294486861344922]
ナビゲーションのための独自の深度検証データセットを構築するためのプロトコルを紹介します。
Rigid Depth ConstructorのRCCは、既存の技術よりもアクセスしやすく、安価になることを目指している。
また,評価アルゴリズムから洞察力のある情報を得るためのテストスイートも開発した。
論文 参考訳(メタデータ) (2021-03-29T22:01:24Z) - Attention Aware Cost Volume Pyramid Based Multi-view Stereo Network for
3D Reconstruction [12.728154351588053]
マルチビュー画像から3次元再構成を行うための効率的なマルチビューステレオ(MVS)ネットワークを提案する。
高分解能深度を実現するために粗粒度深度推論戦略を導入する。
論文 参考訳(メタデータ) (2020-11-25T13:34:11Z) - Don't Forget The Past: Recurrent Depth Estimation from Monocular Video [92.84498980104424]
私たちは3つの異なる種類の深さ推定を共通のフレームワークに組み込んだ。
提案手法は, 時系列の深度マップを生成する。
モノクロビデオにのみ適用したり、異なる種類のスパース深度パターンと組み合わせたりすることができる。
論文 参考訳(メタデータ) (2020-01-08T16:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。