論文の概要: DELS-MVS: Deep Epipolar Line Search for Multi-View Stereo
- arxiv url: http://arxiv.org/abs/2212.06626v1
- Date: Tue, 13 Dec 2022 15:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 14:55:44.312949
- Title: DELS-MVS: Deep Epipolar Line Search for Multi-View Stereo
- Title(参考訳): DELS-MVS:多視点ステレオのための深部エピポーラ線探索
- Authors: Christian Sormann (1), Emanuele Santellani (1), Mattia Rossi (2),
Andreas Kuhn (2), Friedrich Fraundorfer (1) ((1) Graz University of
Technology, (2) Sony Europe B.V.)
- Abstract要約: 深層学習に基づくマルチビューステレオ(MVS)のための新しいアプローチを提案する。
参照画像の各画素に対して,提案手法は深層構造を利用して,対応するエピポーラ線に沿ってソース画像の対応する点を直接探索する。
我々はETH3D, Tanks and Temples and DTUベンチマークでDELS-MVSをテストし、最先端のアプローチに関する競争結果を得た。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel approach for deep learning-based Multi-View Stereo (MVS).
For each pixel in the reference image, our method leverages a deep architecture
to search for the corresponding point in the source image directly along the
corresponding epipolar line. We denote our method DELS-MVS: Deep Epipolar Line
Search Multi-View Stereo. Previous works in deep MVS select a range of interest
within the depth space, discretize it, and sample the epipolar line according
to the resulting depth values: this can result in an uneven scanning of the
epipolar line, hence of the image space. Instead, our method works directly on
the epipolar line: this guarantees an even scanning of the image space and
avoids both the need to select a depth range of interest, which is often not
known a priori and can vary dramatically from scene to scene, and the need for
a suitable discretization of the depth space. In fact, our search is iterative,
which avoids the building of a cost volume, costly both to store and to
process. Finally, our method performs a robust geometry-aware fusion of the
estimated depth maps, leveraging a confidence predicted alongside each depth.
We test DELS-MVS on the ETH3D, Tanks and Temples and DTU benchmarks and achieve
competitive results with respect to state-of-the-art approaches.
- Abstract(参考訳): 深層学習に基づくマルチビューステレオ(MVS)のための新しいアプローチを提案する。
参照画像の各画素に対して,提案手法は深層構造を利用して,対応するエピポーラ線に沿ってソース画像の対応する点を直接探索する。
DELS-MVS: Deep Epipolar Line Search Multi-View Stereoを示す。
ディープMVSにおける以前の研究は、深さ空間内での関心の範囲を選択し、それを識別し、その結果の深さ値に従ってエピポーラ線をサンプリングする。
その代わり、この手法はエピポーラ線に直接作用する:これは画像空間を偶発的に走査することを保証し、しばしば前もって知られておらず、シーンごとに劇的に変化する関心の深さ範囲を選択する必要性と、深度空間の適切な離散化の必要性の両方を回避できる。
実際、われわれの検索は反復的であり、コストボリュームの構築を避け、保存と処理の両方にコストがかかる。
最後に,推定深度マップのロバストな幾何認識融合を行い,各深さとともに予測される信頼度を活用する。
我々はETH3D, Tanks and Temples and DTUベンチマークでDELS-MVSをテストし、最先端のアプローチに関する競争結果を得た。
関連論文リスト
- A Global Depth-Range-Free Multi-View Stereo Transformer Network with Pose Embedding [76.44979557843367]
本稿では,事前の深度範囲を排除した新しい多視点ステレオ(MVS)フレームワークを提案する。
長距離コンテキスト情報を集約するMDA(Multi-view Disparity Attention)モジュールを導入する。
ソース画像のエピポーラ線上のサンプリング点に対応する電流画素の品質を明示的に推定する。
論文 参考訳(メタデータ) (2024-11-04T08:50:16Z) - Pixel-Aligned Multi-View Generation with Depth Guided Decoder [86.1813201212539]
画素レベルの画像・マルチビュー生成のための新しい手法を提案する。
従来の作業とは異なり、潜伏映像拡散モデルのVAEデコーダにマルチビュー画像にアテンション層を組み込む。
本モデルにより,マルチビュー画像間の画素アライメントが向上する。
論文 参考訳(メタデータ) (2024-08-26T04:56:41Z) - ARAI-MVSNet: A multi-view stereo depth estimation network with adaptive
depth range and depth interval [19.28042366225802]
マルチビューステレオ(MVS)は幾何学的コンピュータビジョンの基本的な問題である。
適応的な全画素深度範囲と深度間隔を実現するために,新しい多段粗大化フレームワークを提案する。
我々のモデルは最先端の性能を達成し、競争一般化能力を得る。
論文 参考訳(メタデータ) (2023-08-17T14:52:11Z) - Constraining Depth Map Geometry for Multi-View Stereo: A Dual-Depth
Approach with Saddle-shaped Depth Cells [23.345139129458122]
同じ深度予測誤差を用いても、異なる深度ジオメトリには大きな性能ギャップがあることが示される。
サドル形状のセルからなる理想的な深度幾何学を導入し, 予測深度マップは地表面を上下に振動する。
また,本手法は,MVSにおける深度幾何学の新たな研究方向を示す。
論文 参考訳(メタデータ) (2023-07-18T11:37:53Z) - Rethinking Disparity: A Depth Range Free Multi-View Stereo Based on
Disparity [17.98608948955211]
既存の学習ベースのマルチビューステレオ(MVS)手法は、3Dコストボリュームを構築するために深さ範囲に依存している。
本稿では,DipMVSと呼ばれるエピポーラ分散フロー(E-flow)に基づく分散型MVS法を提案する。
本研究では、DipMVSは深さ範囲に敏感ではなく、GPUメモリを低くすることで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-11-30T11:05:02Z) - Uncertainty-Aware Deep Multi-View Photometric Stereo [100.97116470055273]
光度ステレオ(PS)は高周波表面の細部を復元するのに優れ、マルチビューステレオ(MVS)はPSによる低周波歪みを除去し、大域的な形状を維持するのに役立つ。
本稿では,PS と MVS の相補的強みを効果的に活用する手法を提案する。
我々は,不確実性を考慮したディープPSネットワークとディープMVSネットワークを用いて,画素ごとの表面の正規度と深さを推定する。
論文 参考訳(メタデータ) (2022-02-26T05:45:52Z) - IB-MVS: An Iterative Algorithm for Deep Multi-View Stereo based on
Binary Decisions [0.0]
本稿では,マルチビューステレオのための新しいディープラーニング手法を提案する。
提案手法は,各画素における実現可能な深度値の連続空間を2値決定方式でトラバースすることにより,高分解能かつ高精度な深度マップを反復的に推定する。
提案手法をDTU, タンク, テンプル上の最先端のマルチビューステレオ手法と, 挑戦的なETH3Dベンチマークと比較し, 競争力のある結果を示した。
論文 参考訳(メタデータ) (2021-11-29T10:04:24Z) - Neural Radiance Fields Approach to Deep Multi-View Photometric Stereo [103.08512487830669]
多視点測光ステレオ問題(MVPS)に対する現代的な解法を提案する。
我々は、光度ステレオ(PS)画像形成モデルを用いて表面配向を取得し、それを多視点のニューラルラディアンス場表現とブレンドして物体の表面形状を復元する。
本手法は,多視点画像のニューラルレンダリングを行い,深部光度ステレオネットワークによって推定される表面の正規性を活用している。
論文 参考訳(メタデータ) (2021-10-11T20:20:03Z) - VolumeFusion: Deep Depth Fusion for 3D Scene Reconstruction [71.83308989022635]
本稿では、ディープニューラルネットワークを用いた従来の2段階フレームワークの複製により、解釈可能性と結果の精度が向上することを提唱する。
ネットワークは,1)深部MVS技術を用いた局所深度マップの局所計算,2)深部マップと画像の特徴を融合させて単一のTSDFボリュームを構築する。
異なる視点から取得した画像間のマッチング性能を改善するために,PosedConvと呼ばれる回転不変な3D畳み込みカーネルを導入する。
論文 参考訳(メタデータ) (2021-08-19T11:33:58Z) - Novel View Synthesis of Dynamic Scenes with Globally Coherent Depths
from a Monocular Camera [93.04135520894631]
本稿では,動的シーンの画像のコレクションを与えられた任意のビューや時間から画像を合成する新しい手法を提案する。
新しいビュー合成の鍵となる課題は、エピポーラ幾何学が動的コンテンツの局所的な動きに適用できない動的なシーン再構成から生じる。
この課題に対処するために、DSVが完成しているマルチビューステレオ(DMV)からの深度と深度を組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-04-02T22:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。