論文の概要: FaSS-MVS -- Fast Multi-View Stereo with Surface-Aware Semi-Global
Matching from UAV-borne Monocular Imagery
- arxiv url: http://arxiv.org/abs/2112.00821v1
- Date: Wed, 1 Dec 2021 20:43:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-04 09:52:36.447269
- Title: FaSS-MVS -- Fast Multi-View Stereo with Surface-Aware Semi-Global
Matching from UAV-borne Monocular Imagery
- Title(参考訳): FaSS-MVS --UAV搭載単眼画像からの表面認識半球マッチングによる高速マルチビューステレオ
- Authors: Boitumelo Ruf, Martin Weinmann, Stefan Hinz
- Abstract要約: FaSS-MVSは表面認識型セミ・グロバルマッチングを用いた高速マルチビューステレオのアプローチである。
FaSS-MVSが推定したデータは、オンラインの3Dマッピングを容易にする。
- 参考スコア(独自算出の注目度): 0.45119235878273
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With FaSS-MVS, we present an approach for fast multi-view stereo with
surface-aware Semi-Global Matching that allows for rapid depth and normal map
estimation from monocular aerial video data captured by UAVs. The data
estimated by FaSS-MVS, in turn, facilitates online 3D mapping, meaning that a
3D map of the scene is immediately and incrementally generated while the image
data is acquired or being received. FaSS-MVS is comprised of a hierarchical
processing scheme in which depth and normal data, as well as corresponding
confidence scores, are estimated in a coarse-to-fine manner, allowing to
efficiently process large scene depths which are inherent to oblique imagery
captured by low-flying UAVs. The actual depth estimation employs a plane-sweep
algorithm for dense multi-image matching to produce depth hypotheses from which
the actual depth map is extracted by means of a surface-aware semi-global
optimization, reducing the fronto-parallel bias of SGM. Given the estimated
depth map, the pixel-wise surface normal information is then computed by
reprojecting the depth map into a point cloud and calculating the normal
vectors within a confined local neighborhood. In a thorough quantitative and
ablative study we show that the accuracies of the 3D information calculated by
FaSS-MVS is close to that of state-of-the-art approaches for offline multi-view
stereo, with the error not even being one magnitude higher than that of COLMAP.
At the same time, however, the average run-time of FaSS-MVS to estimate a
single depth and normal map is less than 14 % of that of COLMAP, allowing to
perform an online and incremental processing of Full-HD imagery at 1-2 Hz.
- Abstract(参考訳): FaSS-MVSでは,UAVが捉えた単眼の空中映像データから高速な深度と正常な地図推定を可能にする表面認識型セミ・グロバルマッチングを用いた高速多視点ステレオのアプローチを提案する。
FaSS-MVSが推定したデータは、オンライン3Dマッピングを容易にし、画像データが取得または受信されている間、シーンの3Dマップを即時かつ漸進的に生成する。
FaSS-MVSは、深度と正常値、およびそれに対応する信頼度を粗い方法で推定し、低空UAVが捉えた斜め画像に固有の大きなシーン深度を効率的に処理できる階層的な処理方式で構成されている。
実深度推定は, 表面認識半大域最適化により実深度マップを抽出し, sgmの前面-平行バイアスを低減した, 密集多眼画像マッチングのための平面スウィープアルゴリズムを用いる。
推定深度マップが与えられると、深度マップを点クラウドに再投影し、閉じ込められた局所近傍における正規ベクトルを計算することにより、画素毎の表面正規情報を算出する。
fass-mvsが計算した3d情報の精度はオフラインのマルチビューステレオに対する最先端のアプローチに近いことを示し,誤差はcolmapのそれよりも1桁高いことさえないことを示した。
しかし同時に、単一深度と正規マップを推定するFaSS-MVSの平均実行時間はCOLMAPの14%以下であり、フルHD画像のオンラインおよびインクリメンタル処理を1-2Hzで行うことができる。
関連論文リスト
- ARAI-MVSNet: A multi-view stereo depth estimation network with adaptive
depth range and depth interval [19.28042366225802]
マルチビューステレオ(MVS)は幾何学的コンピュータビジョンの基本的な問題である。
適応的な全画素深度範囲と深度間隔を実現するために,新しい多段粗大化フレームワークを提案する。
我々のモデルは最先端の性能を達成し、競争一般化能力を得る。
論文 参考訳(メタデータ) (2023-08-17T14:52:11Z) - SimpleMapping: Real-Time Visual-Inertial Dense Mapping with Deep
Multi-View Stereo [13.535871843518953]
モノクロ画像とIMU読解のみを用いた高画質のリアルタイムビジュアル慣性高密度マッピング法を提案する。
そこで本稿では,VIOシステムから得られる情報的だがノイズの多いスパースポイントを効果的に活用できるスパースポイント支援ステレオニューラルネットワーク(SPA-MVSNet)を提案する。
提案手法は,EuRoCデータセットの難易度評価において,既存システムよりも39.7%のFスコア向上を実現している。
論文 参考訳(メタデータ) (2023-06-14T17:28:45Z) - Rethinking Disparity: A Depth Range Free Multi-View Stereo Based on
Disparity [17.98608948955211]
既存の学習ベースのマルチビューステレオ(MVS)手法は、3Dコストボリュームを構築するために深さ範囲に依存している。
本稿では,DipMVSと呼ばれるエピポーラ分散フロー(E-flow)に基づく分散型MVS法を提案する。
本研究では、DipMVSは深さ範囲に敏感ではなく、GPUメモリを低くすることで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-11-30T11:05:02Z) - 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - Neural Radiance Fields Approach to Deep Multi-View Photometric Stereo [103.08512487830669]
多視点測光ステレオ問題(MVPS)に対する現代的な解法を提案する。
我々は、光度ステレオ(PS)画像形成モデルを用いて表面配向を取得し、それを多視点のニューラルラディアンス場表現とブレンドして物体の表面形状を復元する。
本手法は,多視点画像のニューラルレンダリングを行い,深部光度ステレオネットワークによって推定される表面の正規性を活用している。
論文 参考訳(メタデータ) (2021-10-11T20:20:03Z) - VolumeFusion: Deep Depth Fusion for 3D Scene Reconstruction [71.83308989022635]
本稿では、ディープニューラルネットワークを用いた従来の2段階フレームワークの複製により、解釈可能性と結果の精度が向上することを提唱する。
ネットワークは,1)深部MVS技術を用いた局所深度マップの局所計算,2)深部マップと画像の特徴を融合させて単一のTSDFボリュームを構築する。
異なる視点から取得した画像間のマッチング性能を改善するために,PosedConvと呼ばれる回転不変な3D畳み込みカーネルを導入する。
論文 参考訳(メタデータ) (2021-08-19T11:33:58Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - Attention Aware Cost Volume Pyramid Based Multi-view Stereo Network for
3D Reconstruction [12.728154351588053]
マルチビュー画像から3次元再構成を行うための効率的なマルチビューステレオ(MVS)ネットワークを提案する。
高分解能深度を実現するために粗粒度深度推論戦略を導入する。
論文 参考訳(メタデータ) (2020-11-25T13:34:11Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。