論文の概要: Multi-View Stereo Representation Revist: Region-Aware MVSNet
- arxiv url: http://arxiv.org/abs/2304.13614v1
- Date: Wed, 26 Apr 2023 15:17:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 13:51:46.027233
- Title: Multi-View Stereo Representation Revist: Region-Aware MVSNet
- Title(参考訳): Multi-View Stereo Representation Revist: Region-Aware MVSNet
- Authors: Yisu Zhang and Jianke Zhu and Lixiang Lin
- Abstract要約: 深層学習に基づく多視点ステレオは,全幾何学的詳細オブジェクトを多視点から再構成するための強力なパラダイムとして登場した。
本研究では, RA-MVSNetを用いて, モデルがより広い範囲の表面を知覚できるように, 点-面間距離の利点を生かし, RA-MVSNetを提案する。
提案するRA-MVSNetは,表面のパッチと仮説平面を関連付けることにより知覚範囲が拡張されるため,パッチアワードである。
- 参考スコア(独自算出の注目度): 8.264851594332677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based multi-view stereo has emerged as a powerful paradigm for
reconstructing the complete geometrically-detailed objects from multi-views.
Most of the existing approaches only estimate the pixel-wise depth value by
minimizing the gap between the predicted point and the intersection of ray and
surface, which usually ignore the surface topology. It is essential to the
textureless regions and surface boundary that cannot be properly reconstructed.
To address this issue, we suggest to take advantage of point-to-surface
distance so that the model is able to perceive a wider range of surfaces. To
this end, we predict the distance volume from cost volume to estimate the
signed distance of points around the surface. Our proposed RA-MVSNet is
patch-awared, since the perception range is enhanced by associating
hypothetical planes with a patch of surface. Therefore, it could increase the
completion of textureless regions and reduce the outliers at the boundary.
Moreover, the mesh topologies with fine details can be generated by the
introduced distance volume. Comparing to the conventional deep learning-based
multi-view stereo methods, our proposed RA-MVSNet approach obtains more
complete reconstruction results by taking advantage of signed distance
supervision. The experiments on both the DTU and Tanks \& Temples datasets
demonstrate that our proposed approach achieves the state-of-the-art results.
- Abstract(参考訳): 深層学習に基づく多視点ステレオは,全幾何学的詳細オブジェクトを多視点から再構成するための強力なパラダイムとして登場した。
既存のアプローチのほとんどは、予測された点と、通常表面トポロジーを無視する線と表面の交点とのギャップを最小化することによって、ピクセルの深さ値を推定するだけである。
テクスチャのない地域や、適切に再構築できない表面境界には不可欠である。
この問題に対処するために,モデルがより広い範囲の表面を知覚できるように,点-面間距離を利用することを提案する。
この目的のために,コスト体積から表面近傍の点の符号付き距離を推定するために距離体積を推定する。
提案するRA-MVSNetは,表面のパッチと仮説平面を関連付けることにより知覚範囲が拡張されるため,パッチアワードである。
したがって、無テクスチャ領域の完成度を高め、境界における外れ値を減らすことができる。
さらに、導入した距離体積によって詳細なメッシュトポロジを生成することができる。
従来の深層学習に基づく多視点ステレオ手法と比較して, RA-MVSNet手法は, 符号付き距離監視を利用して, より完全な再構成結果を得る。
DTU と Tanks \& Temples のデータセットを用いた実験により,提案手法が最先端の成果をもたらすことを示す。
関連論文リスト
- Surface-Centric Modeling for High-Fidelity Generalizable Neural Surface Reconstruction [29.26047429432185]
SuRFは、マッチングフィールドに基づいた新しいリージョンスペーシフィケーションを組み込んだ、新しいフレームワークである。
我々の知る限り、この手法はエンドツーエンドのスパーシフィケーションを実現する最初の教師なしの手法である。
実験により, 再現は高品質な細部を呈し, 新たな最先端性能を達成できることが確認された。
論文 参考訳(メタデータ) (2024-09-05T15:48:02Z) - Arbitrary-Scale Point Cloud Upsampling by Voxel-Based Network with
Latent Geometric-Consistent Learning [52.825441454264585]
Voxel-based Network (textbfPU-VoxelNet) を用いた任意のスケールのクラウド・アップサンプリング・フレームワークを提案する。
ボクセル表現から継承された完全性と規則性により、ボクセルベースのネットワークは3次元表面を近似する事前定義されたグリッド空間を提供することができる。
密度誘導グリッド再サンプリング法を開発し、高忠実度点を生成するとともに、サンプリング出力を効果的に回避する。
論文 参考訳(メタデータ) (2024-03-08T07:31:14Z) - V-FUSE: Volumetric Depth Map Fusion with Long-Range Constraints [6.7197802356130465]
本稿では,Multi-View Stereo(MVS)アルゴリズムによって生成された深度マップと信頼マップのセットを入力として受け入れ,改良する学習ベースの深度マップ融合フレームワークを提案する。
また、各線に沿った深度仮説探索空間を減らすために、より大きな融合サブネットワークと共に訓練された深度探索ウィンドウ推定サブネットワークを導入する。
本手法は,データから直接,深度コンセンサスと可視性制約の違反をモデル化することを学ぶ。
論文 参考訳(メタデータ) (2023-08-17T00:39:56Z) - C2F2NeUS: Cascade Cost Frustum Fusion for High Fidelity and
Generalizable Neural Surface Reconstruction [12.621233209149953]
本稿では,多視点ステレオとニューラルサイン付き距離関数表現を組み合わせた新しい統合手法を提案する。
本手法は,ロバストな表面を再構成し,既存の最先端の手法より優れる。
論文 参考訳(メタデータ) (2023-06-16T17:56:16Z) - Visual Attention-based Self-supervised Absolute Depth Estimation using
Geometric Priors in Autonomous Driving [8.045833295463094]
空間的注意とチャネルの注意をすべてのステージに適用する,完全に視覚的注意に基づく奥行き(VADepth)ネットワークを導入する。
VADepthネットワークは、空間的およびチャネル的次元に沿った特徴の依存関係を長距離にわたって連続的に抽出することにより、重要な詳細を効果的に保存することができる。
KITTIデータセットの実験結果は、このアーキテクチャが最先端のパフォーマンスを達成することを示している。
論文 参考訳(メタデータ) (2022-05-18T08:01:38Z) - Improving Monocular Visual Odometry Using Learned Depth [84.05081552443693]
単眼深度推定を応用して視力計測(VO)を改善する枠組みを提案する。
我々のフレームワークの中核は、多様なシーンに対して強力な一般化能力を持つ単眼深度推定モジュールである。
現在の学習型VO法と比較して,本手法は多様なシーンに対してより強力な一般化能力を示す。
論文 参考訳(メタデータ) (2022-04-04T06:26:46Z) - Uncertainty-Aware Deep Multi-View Photometric Stereo [100.97116470055273]
光度ステレオ(PS)は高周波表面の細部を復元するのに優れ、マルチビューステレオ(MVS)はPSによる低周波歪みを除去し、大域的な形状を維持するのに役立つ。
本稿では,PS と MVS の相補的強みを効果的に活用する手法を提案する。
我々は,不確実性を考慮したディープPSネットワークとディープMVSネットワークを用いて,画素ごとの表面の正規度と深さを推定する。
論文 参考訳(メタデータ) (2022-02-26T05:45:52Z) - Neural Radiance Fields Approach to Deep Multi-View Photometric Stereo [103.08512487830669]
多視点測光ステレオ問題(MVPS)に対する現代的な解法を提案する。
我々は、光度ステレオ(PS)画像形成モデルを用いて表面配向を取得し、それを多視点のニューラルラディアンス場表現とブレンドして物体の表面形状を復元する。
本手法は,多視点画像のニューラルレンダリングを行い,深部光度ステレオネットワークによって推定される表面の正規性を活用している。
論文 参考訳(メタデータ) (2021-10-11T20:20:03Z) - Learning Signed Distance Field for Multi-view Surface Reconstruction [24.090786783370195]
ステレオマッチングと特徴整合性の知識を生かした新しいニューラルネットワーク表面再構成フレームワークを提案する。
サインされた距離場(SDF)と表面光場(SDF)をそれぞれ、シーン形状と外観を表すために適用する。
本手法は,地形推定のロバスト性を向上し,複雑なシーントポロジの再構築を支援する。
論文 参考訳(メタデータ) (2021-08-23T06:23:50Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。