論文の概要: Curvature-guided dynamic scale networks for Multi-view Stereo
- arxiv url: http://arxiv.org/abs/2112.05999v1
- Date: Sat, 11 Dec 2021 14:41:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 11:51:30.239481
- Title: Curvature-guided dynamic scale networks for Multi-view Stereo
- Title(参考訳): マルチビューステレオのための曲率誘導動的スケールネットワーク
- Authors: Khang Truong Giang, Soohwan Song, and Sungho Jo
- Abstract要約: 本稿では,重み計算を伴わずにマッチングコストの性能を向上させるために,ロバストな特徴抽出ネットワークを学習することに焦点を当てる。
動的スケール特徴抽出ネットワーク,すなわちCDSFNetを提案する。
複数の新しい畳み込み層で構成され、それぞれが画像表面の通常の曲率でガイドされる各画素に対して適切なパッチスケールを選択することができる。
- 参考スコア(独自算出の注目度): 10.667165962654996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-view stereo (MVS) is a crucial task for precise 3D reconstruction. Most
recent studies tried to improve the performance of matching cost volume in MVS
by designing aggregated 3D cost volumes and their regularization. This paper
focuses on learning a robust feature extraction network to enhance the
performance of matching costs without heavy computation in the other steps. In
particular, we present a dynamic scale feature extraction network, namely,
CDSFNet. It is composed of multiple novel convolution layers, each of which can
select a proper patch scale for each pixel guided by the normal curvature of
the image surface. As a result, CDFSNet can estimate the optimal patch scales
to learn discriminative features for accurate matching computation between
reference and source images. By combining the robust extracted features with an
appropriate cost formulation strategy, our resulting MVS architecture can
estimate depth maps more precisely. Extensive experiments showed that the
proposed method outperforms other state-of-the-art methods on complex outdoor
scenes. It significantly improves the completeness of reconstructed models. As
a result, the method can process higher resolution inputs within faster
run-time and lower memory than other MVS methods. Our source code is available
at url{https://github.com/TruongKhang/cds-mvsnet}.
- Abstract(参考訳): マルチビューステレオ(MVS)は正確な3次元再構成のための重要な課題である。
直近の研究では, 集約された3次元コストボリュームとその正規化を設計することにより, MVSにおける整合コストボリュームの性能向上を試みた。
本稿では,強固な特徴抽出ネットワークを学習し,他のステップで重計算することなくマッチングコストの性能を向上させることに焦点を当てる。
特に,動的スケール特徴抽出ネットワーク,すなわちCDSFNetを提案する。
複数の新しい畳み込み層で構成され、それぞれが画像表面の通常の曲率でガイドされる各画素に対して適切なパッチスケールを選択することができる。
その結果、cdfsnetは最適なパッチスケールを推定し、参照画像とソース画像の正確なマッチング計算のための識別特徴を学ぶことができる。
頑健な抽出特徴と適切なコスト定式化戦略を組み合わせることで、MVSアーキテクチャによりより正確に深度マップを推定できる。
大規模な実験により,提案手法は複雑な屋外シーンにおける他の最先端手法よりも優れていた。
復元されたモデルの完全性が大幅に向上する。
その結果、他のMVS法よりも高速な実行時および低メモリで高解像度入力を処理できる。
ソースコードはurl{https://github.com/truongkhang/cds-mvsnet}から入手できます。
関連論文リスト
- SD-MVS: Segmentation-Driven Deformation Multi-View Stereo with Spherical
Refinement and EM optimization [6.886220026399106]
テクスチャレス領域の3次元再構成における課題を解決するために,多視点ステレオ (SD-MVS) を導入する。
私たちは、シーン内のセグメンテーションインスタンスを区別するためにSAM(Segment Anything Model)を採用した最初の人です。
球面座標と正規点の勾配勾配と深度の画素方向探索間隔を組み合わせた独自の精細化戦略を提案する。
論文 参考訳(メタデータ) (2024-01-12T05:25:57Z) - Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - Multi-View Photometric Stereo Revisited [100.97116470055273]
多視点測光ステレオ(MVPS)は、画像から被写体を詳細に正確に3D取得する方法として好まれる。
MVPSは異方性や光沢などの他の対象物質と同様に,等方性に対しても有効である。
提案手法は、複数のベンチマークデータセットで広範囲にテストした場合に、最先端の結果を示す。
論文 参考訳(メタデータ) (2022-10-14T09:46:15Z) - Detailed Facial Geometry Recovery from Multi-view Images by Learning an
Implicit Function [12.522283941978722]
約10秒で高精細な3次元顔を復元する新しいアーキテクチャを提案する。
マルチビュー画像から3次元形態素モデルを取り付けることで、複数の画像の特徴を抽出し、メッシュ付きUV空間に集約する。
提案手法は,FaceScape データセットにおいて,SOTA 学習に基づく MVS の精度を高いマージンで向上させる。
論文 参考訳(メタデータ) (2022-01-04T07:24:58Z) - Multi-View Stereo Network with attention thin volume [0.0]
複数のRGB画像から深度値を推定するための効率的なマルチビューステレオ(MVS)ネットワークを提案する。
入力画像から支配的な情報を完全に集約する自己認識機構を導入する。
また,特徴集約に対するグループワイド相関を導入し,メモリと計算負荷を大幅に削減する。
論文 参考訳(メタデータ) (2021-10-16T11:51:23Z) - Correlate-and-Excite: Real-Time Stereo Matching via Guided Cost Volume
Excitation [65.83008812026635]
本稿では,GCE ( Guided Cost Volume Excitation) を構築し,画像によって誘導されるコストボリュームの簡単なチャネル励磁により,性能が大幅に向上することを示す。
我々はCorrelate-and-Excite(CoEx)と呼ぶエンドツーエンドネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-12T14:32:26Z) - AA-RMVSNet: Adaptive Aggregation Recurrent Multi-view Stereo Network [8.127449025802436]
本稿では,AA-RMVSNetというアダプティブアグリゲーションを備えた長短期記憶(LSTM)に基づく,新しいマルチビューステレオネットワークを提案する。
まず、コンテキスト認識の畳み込みとマルチスケールアグリゲーションを用いて、画像の特徴を適応的に抽出するビュー内アグリゲーションモジュールを提案する。
本稿では,すべてのビューにおいて,より整合性のあるペアを保存可能な,適応的なピクセルワイドビューアグリゲーションのためのビュー間コストボリュームアグリゲーションモジュールを提案する。
論文 参考訳(メタデータ) (2021-08-09T06:10:48Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - Dense Hybrid Recurrent Multi-view Stereo Net with Dynamic Consistency
Checking [54.58791377183574]
1)DRENet(Dense Reception Expanded)モジュールで,原サイズの密集した特徴マップをマルチスケールのコンテキスト情報で抽出し,2)HU-LSTM(Hybrid U-LSTM)を用いて3次元マッチングボリュームを予測深度マップに変換する。
R-MVSNetのメモリ消費は19.4%しかかからないが,本手法は最先端の手法と競合する性能を示し,メモリ消費を劇的に削減する。
論文 参考訳(メタデータ) (2020-07-21T14:59:59Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。