論文の概要: Dense Hybrid Recurrent Multi-view Stereo Net with Dynamic Consistency
Checking
- arxiv url: http://arxiv.org/abs/2007.10872v1
- Date: Tue, 21 Jul 2020 14:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 05:06:46.431596
- Title: Dense Hybrid Recurrent Multi-view Stereo Net with Dynamic Consistency
Checking
- Title(参考訳): 動的整合性検査を用いたDense Hybrid Recurrent Multi-view Stereo Net
- Authors: Jianfeng Yan, Zizhuang Wei, Hongwei Yi, Mingyu Ding, Runze Zhang,
Yisong Chen, Guoping Wang, Yu-Wing Tai
- Abstract要約: 1)DRENet(Dense Reception Expanded)モジュールで,原サイズの密集した特徴マップをマルチスケールのコンテキスト情報で抽出し,2)HU-LSTM(Hybrid U-LSTM)を用いて3次元マッチングボリュームを予測深度マップに変換する。
R-MVSNetのメモリ消費は19.4%しかかからないが,本手法は最先端の手法と競合する性能を示し,メモリ消費を劇的に削減する。
- 参考スコア(独自算出の注目度): 54.58791377183574
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose an efficient and effective dense hybrid recurrent
multi-view stereo net with dynamic consistency checking, namely
$D^{2}$HC-RMVSNet, for accurate dense point cloud reconstruction. Our novel
hybrid recurrent multi-view stereo net consists of two core modules: 1) a light
DRENet (Dense Reception Expanded) module to extract dense feature maps of
original size with multi-scale context information, 2) a HU-LSTM (Hybrid
U-LSTM) to regularize 3D matching volume into predicted depth map, which
efficiently aggregates different scale information by coupling LSTM and U-Net
architecture. To further improve the accuracy and completeness of reconstructed
point clouds, we leverage a dynamic consistency checking strategy instead of
prefixed parameters and strategies widely adopted in existing methods for dense
point cloud reconstruction. In doing so, we dynamically aggregate geometric
consistency matching error among all the views. Our method ranks
\textbf{$1^{st}$} on the complex outdoor \textsl{Tanks and Temples} benchmark
over all the methods. Extensive experiments on the in-door DTU dataset show our
method exhibits competitive performance to the state-of-the-art method while
dramatically reduces memory consumption, which costs only $19.4\%$ of R-MVSNet
memory consumption. The codebase is available at
\hyperlink{https://github.com/yhw-yhw/D2HC-RMVSNet}{https://github.com/yhw-yhw/D2HC-RMVSNet}.
- Abstract(参考訳): 本稿では,高濃度ポイント雲の正確な再構成のために,動的一貫性チェックを行う効率的な高濃度ハイブリッド多視点ステレオネット,すなわち$d^{2}$hc-rmvsnetを提案する。
この新しいハイブリッド・リカレント・マルチビューステレオネットは2つのコアモジュールで構成されている。
1)DRENet(Dense Reception Expanded)モジュールにより,マルチスケールコンテキスト情報を用いて,オリジナルサイズの高密度特徴マップを抽出する。
2)HU-LSTM(Hybrid U-LSTM)を用いて3次元マッチングボリュームを予測深度マップに調整し,LSTMとU-Netアーキテクチャを結合することで,異なるスケール情報を効率的に集約する。
再構成されたポイントクラウドの精度と完全性をさらに向上するため,既存の高密度ポイントクラウド再構築法で広く採用されているプレフィックスパラメータや戦略に代えて,動的一貫性チェック戦略を利用する。
そうすることで、すべてのビューで幾何学的一貫性マッチングエラーを動的に集約する。
我々のメソッドは、すべてのメソッドに対して複雑な屋外の \textsl{Tanks and Temples} ベンチマーク上で \textbf{$1^{st}$} をランク付けする。
室内DTUデータセットの大規模な実験により,本手法は最先端の手法と競合する性能を示しながら,メモリ消費を劇的に削減し,R-MVSNetの19.4\%のコストしかかからないことがわかった。
コードベースは \hyperlink{https://github.com/yhw-yhw/D2HC-RMVSNet}{https://github.com/yhw-yhw/D2HC-RMVSNet} で公開されている。
関連論文リスト
- CalibNet: Dual-branch Cross-modal Calibration for RGB-D Salient Instance Segmentation [88.50067783122559]
CalibNetは3つの単純なモジュール、動的インタラクティブカーネル(DIK)と重量共有融合(WSF)で構成されている。
実験の結果、CalibNetは、COME15K-Nテストセット上で320*480の入力サイズを持つ58.0% APという有望な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-07-16T16:49:59Z) - Dynamic Clustering Transformer Network for Point Cloud Segmentation [23.149220817575195]
動的クラスタリングトランスネットワーク(DCTNet)と呼ばれる新しい3Dポイントクラウド表現ネットワークを提案する。
エンコーダ-デコーダアーキテクチャがあり、ローカルとグローバルの両方の機能学習が可能である。
提案手法は,オブジェクトベースデータセット(ShapeNet),都市ナビゲーションデータセット(Toronto-3D),マルチスペクトルLiDARデータセットを用いて評価した。
論文 参考訳(メタデータ) (2023-05-30T01:11:05Z) - Curvature-guided dynamic scale networks for Multi-view Stereo [10.667165962654996]
本稿では,重み計算を伴わずにマッチングコストの性能を向上させるために,ロバストな特徴抽出ネットワークを学習することに焦点を当てる。
動的スケール特徴抽出ネットワーク,すなわちCDSFNetを提案する。
複数の新しい畳み込み層で構成され、それぞれが画像表面の通常の曲率でガイドされる各画素に対して適切なパッチスケールを選択することができる。
論文 参考訳(メタデータ) (2021-12-11T14:41:05Z) - Non-local Recurrent Regularization Networks for Multi-view Stereo [108.17325696835542]
深層多視点ステレオネットワークでは、正確な深さ推定を実現するためにコスト正規化が不可欠である。
NR2-Netと呼ばれるマルチビューステレオのための新しい非局所リカレント正規化ネットワークを提案する。
提案手法は,DTU,タンク,テンプルの双方のデータセットに対して,最先端の再構築結果を実現する。
論文 参考訳(メタデータ) (2021-10-13T01:43:54Z) - AA-RMVSNet: Adaptive Aggregation Recurrent Multi-view Stereo Network [8.127449025802436]
本稿では,AA-RMVSNetというアダプティブアグリゲーションを備えた長短期記憶(LSTM)に基づく,新しいマルチビューステレオネットワークを提案する。
まず、コンテキスト認識の畳み込みとマルチスケールアグリゲーションを用いて、画像の特徴を適応的に抽出するビュー内アグリゲーションモジュールを提案する。
本稿では,すべてのビューにおいて,より整合性のあるペアを保存可能な,適応的なピクセルワイドビューアグリゲーションのためのビュー間コストボリュームアグリゲーションモジュールを提案する。
論文 参考訳(メタデータ) (2021-08-09T06:10:48Z) - 3D Point Cloud Registration with Multi-Scale Architecture and
Self-supervised Fine-tuning [5.629161809575013]
MS-SVConvは、2つのシーン間の3D登録のためにポイントクラウドから機能を出力する高速マルチスケールディープニューラルネットワークです。
競合的かつよく知られた3DMatchベンチマークでは,最先端の手法と比較して,大幅な改善が見られた。
我々は,未知のデータセットを自己管理的に微調整し,ETHおよびTUMデータセットの最先端結果をもたらす戦略を提案する。
論文 参考訳(メタデータ) (2021-03-26T15:38:33Z) - Volumetric Propagation Network: Stereo-LiDAR Fusion for Long-Range Depth
Estimation [81.08111209632501]
長距離深度推定のための幾何認識型ステレオLiDAR融合ネットワークを提案する。
ステレオ画像の対応を統一した3Dボリューム空間で導くためのキューとして、スパースで正確な点群を活用します。
我々のネットワークは,KITTIおよびVirtual-KITTIデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-03-24T03:24:46Z) - Adaptive Context-Aware Multi-Modal Network for Depth Completion [107.15344488719322]
我々は,観測された空間コンテキストを捉えるために,グラフ伝搬を採用することを提案する。
次に、注意機構を伝搬に適用し、ネットワークが文脈情報を適応的にモデル化することを奨励する。
最後に、抽出したマルチモーダル特徴を効果的に活用するための対称ゲート融合戦略を導入する。
本稿では,Adaptive Context-Aware Multi-Modal Network (ACMNet) を2つのベンチマークで評価した。
論文 参考訳(メタデータ) (2020-08-25T06:00:06Z) - Fast-MVSNet: Sparse-to-Dense Multi-View Stereo With Learned Propagation
and Gauss-Newton Refinement [46.8514966956438]
本稿では,MVSにおける高速かつ高精度な深度推定のための,スパース・トゥ・ディエンス・サース・トゥ・ファインメント・フレームワークであるFast-MVSNetを提案する。
具体的には、Fast-MVSNetにおいて、スパース深度マップと高分解能深度マップを学習するためのスパースコストボリュームを最初に構築する。
最終的に、深度マップをさらに最適化するために、単純だが効率的なガウスニュートン層が提案されている。
論文 参考訳(メタデータ) (2020-03-29T13:31:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。