論文の概要: Rethinking Disparity: A Depth Range Free Multi-View Stereo Based on
Disparity
- arxiv url: http://arxiv.org/abs/2211.16905v1
- Date: Wed, 30 Nov 2022 11:05:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 17:17:03.687503
- Title: Rethinking Disparity: A Depth Range Free Multi-View Stereo Based on
Disparity
- Title(参考訳): 差を再考する:差に基づく深度範囲自由マルチビューステレオ
- Authors: Qingsong Yan, Qiang Wang, Kaiyong Zhao, Bo Li, Xiaowen Chu, Fei Deng
- Abstract要約: 既存の学習ベースのマルチビューステレオ(MVS)手法は、3Dコストボリュームを構築するために深さ範囲に依存している。
本稿では,DipMVSと呼ばれるエピポーラ分散フロー(E-flow)に基づく分散型MVS法を提案する。
本研究では、DipMVSは深さ範囲に敏感ではなく、GPUメモリを低くすることで最先端の結果が得られることを示す。
- 参考スコア(独自算出の注目度): 17.98608948955211
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Existing learning-based multi-view stereo (MVS) methods rely on the depth
range to build the 3D cost volume and may fail when the range is too large or
unreliable. To address this problem, we propose a disparity-based MVS method
based on the epipolar disparity flow (E-flow), called DispMVS, which infers the
depth information from the pixel movement between two views. The core of
DispMVS is to construct a 2D cost volume on the image plane along the epipolar
line between each pair (between the reference image and several source images)
for pixel matching and fuse uncountable depths triangulated from each pair by
multi-view geometry to ensure multi-view consistency. To be robust, DispMVS
starts from a randomly initialized depth map and iteratively refines the depth
map with the help of the coarse-to-fine strategy. Experiments on DTUMVS and
Tanks\&Temple datasets show that DispMVS is not sensitive to the depth range
and achieves state-of-the-art results with lower GPU memory.
- Abstract(参考訳): 既存の学習ベースのマルチビューステレオ(mvs)メソッドは、3dコストボリュームを構築するために深さ範囲に依存しており、範囲が大きすぎると失敗する可能性がある。
この問題に対処するために,2つのビュー間の画素移動から深度情報を推定するDipMVSと呼ばれるエピポーラ不均質フロー(E-flow)に基づく不均質MVS手法を提案する。
DispMVSのコアは、画像平面上の2Dコストボリュームを、各対(参照画像と複数のソース画像の間)のエピポーラ線に沿って構成し、複数のビューの整合性を確保するために、各対から三角測量された画素マッチングと無算深度を融合することである。
強固にするために、DispMVSはランダムに初期化された深度マップから始まり、粗大な戦略の助けを借りて深度マップを反復的に洗練する。
DTUMVS と Tanks\&Temple データセットの実験では、DispMVS は深さ範囲に敏感ではなく、GPUメモリを低くすることで最先端の結果が得られる。
関連論文リスト
- A Global Depth-Range-Free Multi-View Stereo Transformer Network with Pose Embedding [76.44979557843367]
本稿では,事前の深度範囲を排除した新しい多視点ステレオ(MVS)フレームワークを提案する。
長距離コンテキスト情報を集約するMDA(Multi-view Disparity Attention)モジュールを導入する。
ソース画像のエピポーラ線上のサンプリング点に対応する電流画素の品質を明示的に推定する。
論文 参考訳(メタデータ) (2024-11-04T08:50:16Z) - Pixel-Aligned Multi-View Generation with Depth Guided Decoder [86.1813201212539]
画素レベルの画像・マルチビュー生成のための新しい手法を提案する。
従来の作業とは異なり、潜伏映像拡散モデルのVAEデコーダにマルチビュー画像にアテンション層を組み込む。
本モデルにより,マルチビュー画像間の画素アライメントが向上する。
論文 参考訳(メタデータ) (2024-08-26T04:56:41Z) - SDL-MVS: View Space and Depth Deformable Learning Paradigm for Multi-View Stereo Reconstruction in Remote Sensing [12.506628755166814]
マルチビューステレオタスクにおける変形性学習手法を再検討し、ビュースペースと深さ変形性学習(SDL-MVS)に基づく新しいパラダイムを提案する。
我々のSDL-MVSは、異なる視点空間における特徴の変形可能な相互作用を学習し、高精度な深さ推定を可能にするために、深さ範囲と間隔を変形的にモデル化することを目的としている。
LuoJia-MVSとWHUデータセットの実験により、我々のSDL-MVSが最先端の性能に達することが示された。
論文 参考訳(メタデータ) (2024-05-27T12:59:46Z) - DELS-MVS: Deep Epipolar Line Search for Multi-View Stereo [0.0]
深層学習に基づくマルチビューステレオ(MVS)のための新しいアプローチを提案する。
参照画像の各画素に対して,提案手法は深層構造を利用して,対応するエピポーラ線に沿ってソース画像の対応する点を直接探索する。
我々はETH3D, Tanks and Temples and DTUベンチマークでDELS-MVSをテストし、最先端のアプローチに関する競争結果を得た。
論文 参考訳(メタデータ) (2022-12-13T15:00:12Z) - IB-MVS: An Iterative Algorithm for Deep Multi-View Stereo based on
Binary Decisions [0.0]
本稿では,マルチビューステレオのための新しいディープラーニング手法を提案する。
提案手法は,各画素における実現可能な深度値の連続空間を2値決定方式でトラバースすることにより,高分解能かつ高精度な深度マップを反復的に推定する。
提案手法をDTU, タンク, テンプル上の最先端のマルチビューステレオ手法と, 挑戦的なETH3Dベンチマークと比較し, 競争力のある結果を示した。
論文 参考訳(メタデータ) (2021-11-29T10:04:24Z) - Neural Radiance Fields Approach to Deep Multi-View Photometric Stereo [103.08512487830669]
多視点測光ステレオ問題(MVPS)に対する現代的な解法を提案する。
我々は、光度ステレオ(PS)画像形成モデルを用いて表面配向を取得し、それを多視点のニューラルラディアンス場表現とブレンドして物体の表面形状を復元する。
本手法は,多視点画像のニューラルレンダリングを行い,深部光度ステレオネットワークによって推定される表面の正規性を活用している。
論文 参考訳(メタデータ) (2021-10-11T20:20:03Z) - VolumeFusion: Deep Depth Fusion for 3D Scene Reconstruction [71.83308989022635]
本稿では、ディープニューラルネットワークを用いた従来の2段階フレームワークの複製により、解釈可能性と結果の精度が向上することを提唱する。
ネットワークは,1)深部MVS技術を用いた局所深度マップの局所計算,2)深部マップと画像の特徴を融合させて単一のTSDFボリュームを構築する。
異なる視点から取得した画像間のマッチング性能を改善するために,PosedConvと呼ばれる回転不変な3D畳み込みカーネルを導入する。
論文 参考訳(メタデータ) (2021-08-19T11:33:58Z) - Multi-View Multi-Person 3D Pose Estimation with Plane Sweep Stereo [71.59494156155309]
既存のマルチビュー3Dポーズ推定手法は、複数のカメラビューからグループ2Dポーズ検出に対するクロスビュー対応を明確に確立する。
平面スイープステレオに基づくマルチビュー3Dポーズ推定手法を提案し、クロスビュー融合と3Dポーズ再構築を1ショットで共同で解決します。
論文 参考訳(メタデータ) (2021-04-06T03:49:35Z) - Deep Two-View Structure-from-Motion Revisited [83.93809929963969]
2次元構造移動(SfM)は3次元再構成と視覚SLAMの基礎となる。
古典パイプラインの適切性を活用することで,深部2視点sfmの問題を再検討することを提案する。
本手法は,1)2つのフレーム間の密対応を予測する光フロー推定ネットワーク,2)2次元光フロー対応から相対カメラポーズを計算する正規化ポーズ推定モジュール,3)エピポーラ幾何を利用して探索空間を縮小し,密対応を洗練し,相対深度マップを推定するスケール不変深さ推定ネットワークからなる。
論文 参考訳(メタデータ) (2021-04-01T15:31:20Z) - Attention Aware Cost Volume Pyramid Based Multi-view Stereo Network for
3D Reconstruction [12.728154351588053]
マルチビュー画像から3次元再構成を行うための効率的なマルチビューステレオ(MVS)ネットワークを提案する。
高分解能深度を実現するために粗粒度深度推論戦略を導入する。
論文 参考訳(メタデータ) (2020-11-25T13:34:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。