論文の概要: IterMVS: Iterative Probability Estimation for Efficient Multi-View
Stereo
- arxiv url: http://arxiv.org/abs/2112.05126v1
- Date: Thu, 9 Dec 2021 18:58:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 14:54:42.461711
- Title: IterMVS: Iterative Probability Estimation for Efficient Multi-View
Stereo
- Title(参考訳): IterMVS: 効率的なマルチビューステレオの反復確率推定
- Authors: Fangjinhua Wang, Silvano Galliani, Christoph Vogel, Marc Pollefeys
- Abstract要約: IterMVSは高解像度マルチビューステレオのための新しいデータ駆動方式である。
隠れ状態の深さの画素単位の確率分布を符号化するGRUに基づく新しい推定器を提案する。
DTU, タンク&テンプル, ETH3Dにおける本手法の有効性と有効性を検証する。
- 参考スコア(独自算出の注目度): 71.84742490020611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present IterMVS, a new data-driven method for high-resolution multi-view
stereo. We propose a novel GRU-based estimator that encodes pixel-wise
probability distributions of depth in its hidden state. Ingesting multi-scale
matching information, our model refines these distributions over multiple
iterations and infers depth and confidence. To extract the depth maps, we
combine traditional classification and regression in a novel manner. We verify
the efficiency and effectiveness of our method on DTU, Tanks&Temples and ETH3D.
While being the most efficient method in both memory and run-time, our model
achieves competitive performance on DTU and better generalization ability on
Tanks&Temples as well as ETH3D than most state-of-the-art methods. Code is
available at https://github.com/FangjinhuaWang/IterMVS.
- Abstract(参考訳): 我々は高解像度マルチビューステレオのための新しいデータ駆動方式であるIterMVSを提案する。
隠れ状態の深さの画素単位の確率分布を符号化するGRUに基づく新しい推定器を提案する。
マルチスケールのマッチング情報を取り込み、複数のイテレーションでこれらの分布を洗練し、深さと信頼性を推定する。
深度マップを抽出するために,従来の分類と回帰を新しい方法で組み合わせる。
DTU, タンク&テンプル, ETH3Dにおける本手法の有効性と有効性を検証する。
メモリとランタイムの両方において最も効率的な手法である一方、我々のモデルはDTU上での競合性能と、タンク&テンプルやETH3Dでのより優れた一般化能力を達成する。
コードはhttps://github.com/fangjinhuawang/itermvsで入手できる。
関連論文リスト
- A Global Depth-Range-Free Multi-View Stereo Transformer Network with Pose Embedding [76.44979557843367]
本稿では,事前の深度範囲を排除した新しい多視点ステレオ(MVS)フレームワークを提案する。
長距離コンテキスト情報を集約するMDA(Multi-view Disparity Attention)モジュールを導入する。
ソース画像のエピポーラ線上のサンプリング点に対応する電流画素の品質を明示的に推定する。
論文 参考訳(メタデータ) (2024-11-04T08:50:16Z) - Pixel-Aligned Multi-View Generation with Depth Guided Decoder [86.1813201212539]
画素レベルの画像・マルチビュー生成のための新しい手法を提案する。
従来の作業とは異なり、潜伏映像拡散モデルのVAEデコーダにマルチビュー画像にアテンション層を組み込む。
本モデルにより,マルチビュー画像間の画素アライメントが向上する。
論文 参考訳(メタデータ) (2024-08-26T04:56:41Z) - SD-MVS: Segmentation-Driven Deformation Multi-View Stereo with Spherical
Refinement and EM optimization [6.886220026399106]
テクスチャレス領域の3次元再構成における課題を解決するために,多視点ステレオ (SD-MVS) を導入する。
私たちは、シーン内のセグメンテーションインスタンスを区別するためにSAM(Segment Anything Model)を採用した最初の人です。
球面座標と正規点の勾配勾配と深度の画素方向探索間隔を組み合わせた独自の精細化戦略を提案する。
論文 参考訳(メタデータ) (2024-01-12T05:25:57Z) - MP-MVS: Multi-Scale Windows PatchMatch and Planar Prior Multi-View
Stereo [7.130834755320434]
レジリエントで効果的なマルチビューステレオアプローチ(MP-MVS)を提案する。
マルチスケールウィンドウPatchMatch (mPM) を設計し, 信頼性の高い非テクスチャ領域の深さを求める。
他のマルチスケールアプローチとは対照的に、より高速で、PatchMatchベースのMVSアプローチに容易に拡張できる。
論文 参考訳(メタデータ) (2023-09-23T07:30:42Z) - Curvature-guided dynamic scale networks for Multi-view Stereo [10.667165962654996]
本稿では,重み計算を伴わずにマッチングコストの性能を向上させるために,ロバストな特徴抽出ネットワークを学習することに焦点を当てる。
動的スケール特徴抽出ネットワーク,すなわちCDSFNetを提案する。
複数の新しい畳み込み層で構成され、それぞれが画像表面の通常の曲率でガイドされる各画素に対して適切なパッチスケールを選択することができる。
論文 参考訳(メタデータ) (2021-12-11T14:41:05Z) - PatchmatchNet: Learned Multi-View Patchmatch Stereo [70.14789588576438]
PatchmatchNetは、高解像度のマルチビューステレオのためのPatchmatchの新規で学習可能なカスケード定式化である。
PatchmatchNetは高速で低メモリを必要とするため、高解像度の画像を処理でき、3Dコストのボリューム正規化を採用する競合製品よりもリソース制限されたデバイスで実行するのに適している。
論文 参考訳(メタデータ) (2020-12-02T18:59:02Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - Fast-MVSNet: Sparse-to-Dense Multi-View Stereo With Learned Propagation
and Gauss-Newton Refinement [46.8514966956438]
本稿では,MVSにおける高速かつ高精度な深度推定のための,スパース・トゥ・ディエンス・サース・トゥ・ファインメント・フレームワークであるFast-MVSNetを提案する。
具体的には、Fast-MVSNetにおいて、スパース深度マップと高分解能深度マップを学習するためのスパースコストボリュームを最初に構築する。
最終的に、深度マップをさらに最適化するために、単純だが効率的なガウスニュートン層が提案されている。
論文 参考訳(メタデータ) (2020-03-29T13:31:00Z) - Towards Reading Beyond Faces for Sparsity-Aware 4D Affect Recognition [55.15661254072032]
自動4次元表情認識(FER)のための空間認識深層ネットワークを提案する。
まず,深層学習のためのデータ制限問題に対処する新しい拡張手法を提案する。
次に、多視点での畳み込み特徴のスパース表現を計算するために、疎度対応のディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-02-08T13:09:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。