論文の概要: Multi-View Guided Multi-View Stereo
- arxiv url: http://arxiv.org/abs/2210.11467v1
- Date: Thu, 20 Oct 2022 17:59:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 15:16:36.772665
- Title: Multi-View Guided Multi-View Stereo
- Title(参考訳): マルチビューガイド型マルチビューステレオ
- Authors: Matteo Poggi, Andrea Conti, Stefano Mattoccia
- Abstract要約: 本稿では,複数の画像フレームから高密度な3次元再構成を実現するための新しいフレームワークを提案する。
ディープ・マルチビューステレオネットワークを前提として,ニューラルネットワークのガイドにはスパース奥行きヒントが使用される。
我々は、最先端の多視点ステレオネットワークにおけるマルチビューガイドフレームワークの評価を行った。
- 参考スコア(独自算出の注目度): 39.116228971420874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a novel deep framework for dense 3D reconstruction from
multiple image frames, leveraging a sparse set of depth measurements gathered
jointly with image acquisition. Given a deep multi-view stereo network, our
framework uses sparse depth hints to guide the neural network by modulating the
plane-sweep cost volume built during the forward step, enabling us to infer
constantly much more accurate depth maps. Moreover, since multiple viewpoints
can provide additional depth measurements, we propose a multi-view guidance
strategy that increases the density of the sparse points used to guide the
network, thus leading to even more accurate results. We evaluate our Multi-View
Guided framework within a variety of state-of-the-art deep multi-view stereo
networks, demonstrating its effectiveness at improving the results achieved by
each of them on BlendedMVG and DTU datasets.
- Abstract(参考訳): 本稿では,複数の画像フレームからの密集した3次元再構成のための新しい深層フレームワークを提案する。
深層多視点ステレオネットワークを前提として,我々のフレームワークでは,前方ステップで構築した平面スウィープコスト量を調整し,より正確な深度マップを常に推測することで,ニューラルネットワークを誘導するスパース奥行きヒントを用いている。
さらに,複数の視点が付加的な深度測定を行うことができるため,ネットワークを誘導するスパースポイントの密度を増大させる多視点誘導戦略を提案する。
我々は,BlendedMVG と DTU のデータセットを用いて,様々な最先端の多視点ステレオネットワーク内でのマルチビューガイドフレームワークの評価を行い,その有効性を実証した。
関連論文リスト
- Pixel-Aligned Multi-View Generation with Depth Guided Decoder [86.1813201212539]
画素レベルの画像・マルチビュー生成のための新しい手法を提案する。
従来の作業とは異なり、潜伏映像拡散モデルのVAEデコーダにマルチビュー画像にアテンション層を組み込む。
本モデルにより,マルチビュー画像間の画素アライメントが向上する。
論文 参考訳(メタデータ) (2024-08-26T04:56:41Z) - SimpleMapping: Real-Time Visual-Inertial Dense Mapping with Deep
Multi-View Stereo [13.535871843518953]
モノクロ画像とIMU読解のみを用いた高画質のリアルタイムビジュアル慣性高密度マッピング法を提案する。
そこで本稿では,VIOシステムから得られる情報的だがノイズの多いスパースポイントを効果的に活用できるスパースポイント支援ステレオニューラルネットワーク(SPA-MVSNet)を提案する。
提案手法は,EuRoCデータセットの難易度評価において,既存システムよりも39.7%のFスコア向上を実現している。
論文 参考訳(メタデータ) (2023-06-14T17:28:45Z) - 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - VolumeFusion: Deep Depth Fusion for 3D Scene Reconstruction [71.83308989022635]
本稿では、ディープニューラルネットワークを用いた従来の2段階フレームワークの複製により、解釈可能性と結果の精度が向上することを提唱する。
ネットワークは,1)深部MVS技術を用いた局所深度マップの局所計算,2)深部マップと画像の特徴を融合させて単一のTSDFボリュームを構築する。
異なる視点から取得した画像間のマッチング性能を改善するために,PosedConvと呼ばれる回転不変な3D畳み込みカーネルを導入する。
論文 参考訳(メタデータ) (2021-08-19T11:33:58Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。