論文の概要: M^3VSNet: Unsupervised Multi-metric Multi-view Stereo Network
- arxiv url: http://arxiv.org/abs/2005.00363v2
- Date: Sat, 6 Jun 2020 03:07:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 05:18:57.853683
- Title: M^3VSNet: Unsupervised Multi-metric Multi-view Stereo Network
- Title(参考訳): m^3vsnet:教師なしマルチメトリックマルチビューステレオネットワーク
- Authors: Baichuan Huang, Hongwei Yi, Can Huang, Yijia He, Jingbin Liu, Xiao Liu
- Abstract要約: 本稿では,M3VSNet という無監督マルチメトリックMVSネットワークを提案する。
点雲再構成の堅牢性と完全性を改善するために,画素ワイドと特徴ワイドのロス関数を組み合わせた多値損失関数を提案する。
実験の結果,M3VSNetは最先端の教師なし手法を確立し,従来の教師なしMVSNetと同等の性能を発揮することがわかった。
- 参考スコア(独自算出の注目度): 13.447649324253572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The present Multi-view stereo (MVS) methods with supervised learning-based
networks have an impressive performance comparing with traditional MVS methods.
However, the ground-truth depth maps for training are hard to be obtained and
are within limited kinds of scenarios. In this paper, we propose a novel
unsupervised multi-metric MVS network, named M^3VSNet, for dense point cloud
reconstruction without any supervision. To improve the robustness and
completeness of point cloud reconstruction, we propose a novel multi-metric
loss function that combines pixel-wise and feature-wise loss function to learn
the inherent constraints from different perspectives of matching
correspondences. Besides, we also incorporate the normal-depth consistency in
the 3D point cloud format to improve the accuracy and continuity of the
estimated depth maps. Experimental results show that M3VSNet establishes the
state-of-the-arts unsupervised method and achieves comparable performance with
previous supervised MVSNet on the DTU dataset and demonstrates the powerful
generalization ability on the Tanks and Temples benchmark with effective
improvement. Our code is available at https://github.com/whubaichuan/M3VSNet
- Abstract(参考訳): 教師付き学習ネットワークを用いたマルチビューステレオ(MVS)方式は,従来のMVS方式と比較して優れた性能を示した。
しかし、訓練用地中深度マップは入手が困難であり、限られたシナリオの範囲内である。
本稿では,M^3VSNetと呼ばれる非教師付きマルチメトリックMVSネットワークを提案する。
点雲再構成の堅牢性と完全性を改善するために,画素ワイドと特徴ワイドのロス関数を組み合わせた新しい多値損失関数を提案し,マッチングの異なる視点から固有制約を学習する。
さらに,推定深度マップの精度と連続性を改善するため,3dポイントクラウドフォーマットの正規深い一貫性も取り入れた。
実験の結果、M3VSNetは最先端の教師なし手法を確立し、DTUデータセット上で従来の教師付きMVSNetと同等の性能を達成し、効果的に改善されたタンク&テンプルベンチマーク上での強力な一般化能力を示す。
私たちのコードはhttps://github.com/whubaichuan/M3VSNetで利用可能です。
関連論文リスト
- 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - Digging into Uncertainty in Self-supervised Multi-view Stereo [57.04768354383339]
自己教師型学習のための新しいuncertainty reduction Multi-view Stereo(UMVS)フレームワークを提案する。
我々のフレームワークは、教師なしのMVSメソッドの中で最高のパフォーマンスを達成し、教師なしの対戦相手と競合する性能を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:53:08Z) - 3D Point Cloud Registration with Multi-Scale Architecture and
Self-supervised Fine-tuning [5.629161809575013]
MS-SVConvは、2つのシーン間の3D登録のためにポイントクラウドから機能を出力する高速マルチスケールディープニューラルネットワークです。
競合的かつよく知られた3DMatchベンチマークでは,最先端の手法と比較して,大幅な改善が見られた。
我々は,未知のデータセットを自己管理的に微調整し,ETHおよびTUMデータセットの最先端結果をもたらす戦略を提案する。
論文 参考訳(メタデータ) (2021-03-26T15:38:33Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - Dense Hybrid Recurrent Multi-view Stereo Net with Dynamic Consistency
Checking [54.58791377183574]
1)DRENet(Dense Reception Expanded)モジュールで,原サイズの密集した特徴マップをマルチスケールのコンテキスト情報で抽出し,2)HU-LSTM(Hybrid U-LSTM)を用いて3次元マッチングボリュームを予測深度マップに変換する。
R-MVSNetのメモリ消費は19.4%しかかからないが,本手法は最先端の手法と競合する性能を示し,メモリ消費を劇的に削減する。
論文 参考訳(メタデータ) (2020-07-21T14:59:59Z) - SurfaceNet+: An End-to-end 3D Neural Network for Very Sparse Multi-view
Stereopsis [52.35697180864202]
マルチビューステレオプシス(MVS)は2次元画像から3次元モデルを復元しようとする。
本研究では,スペーサー感覚がより実用的でコスト効率が高いため,ベースライン角度が大きいスパースMVSについて検討する。
非常にスパースなMVSセットアップによって生じる「不完全性」と「不正確性」問題を扱うためのボリューム手法であるSurfaceNet+を提案する。
論文 参考訳(メタデータ) (2020-05-26T13:13:02Z) - M^3VSNet: Unsupervised Multi-metric Multi-view Stereo Network [13.447649324253572]
本稿では,M3VSNet という無監督マルチメトリックMVSネットワークを提案する。
点雲再構成の堅牢性と完全性を改善するために,画素ワイドと特徴ワイドのロス関数を組み合わせた多値損失関数を提案する。
実験の結果,M3VSNetは最先端の教師なし手法を確立し,従来の教師なしMVSNetと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2020-04-21T02:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。