論文の概要: VolumeFusion: Deep Depth Fusion for 3D Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2108.08623v1
- Date: Thu, 19 Aug 2021 11:33:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-20 14:30:32.934767
- Title: VolumeFusion: Deep Depth Fusion for 3D Scene Reconstruction
- Title(参考訳): ボリュームフュージョン:3次元シーン再構成のための深部融合
- Authors: Jaesung Choe, Sunghoon Im, Francois Rameau, Minjun Kang, In So Kweon
- Abstract要約: 本稿では、ディープニューラルネットワークを用いた従来の2段階フレームワークの複製により、解釈可能性と結果の精度が向上することを提唱する。
ネットワークは,1)深部MVS技術を用いた局所深度マップの局所計算,2)深部マップと画像の特徴を融合させて単一のTSDFボリュームを構築する。
異なる視点から取得した画像間のマッチング性能を改善するために,PosedConvと呼ばれる回転不変な3D畳み込みカーネルを導入する。
- 参考スコア(独自算出の注目度): 71.83308989022635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To reconstruct a 3D scene from a set of calibrated views, traditional
multi-view stereo techniques rely on two distinct stages: local depth maps
computation and global depth maps fusion. Recent studies concentrate on deep
neural architectures for depth estimation by using conventional depth fusion
method or direct 3D reconstruction network by regressing Truncated Signed
Distance Function (TSDF). In this paper, we advocate that replicating the
traditional two stages framework with deep neural networks improves both the
interpretability and the accuracy of the results. As mentioned, our network
operates in two steps: 1) the local computation of the local depth maps with a
deep MVS technique, and, 2) the depth maps and images' features fusion to build
a single TSDF volume. In order to improve the matching performance between
images acquired from very different viewpoints (e.g., large-baseline and
rotations), we introduce a rotation-invariant 3D convolution kernel called
PosedConv. The effectiveness of the proposed architecture is underlined via a
large series of experiments conducted on the ScanNet dataset where our approach
compares favorably against both traditional and deep learning techniques.
- Abstract(参考訳): キャリブレーションされたビューから3Dシーンを再構築するために、従来の多視点ステレオ技術は局所深度マップ計算と大域深度マップ融合という2つの異なるステージに依存している。
最近の研究は、従来の深度融合法やtsdf(reressing truncated signed distance function)による直接3次元再構成ネットワークを用いた深度推定のためのディープニューラルアーキテクチャに焦点を当てている。
本稿では,従来の2段階の枠組みをディープニューラルネットワークで再現することで,結果の解釈可能性と精度が向上することを示す。
上述したように、ネットワークは、1)深部mvs技術による局所深部マップの局所計算、2)深部マップと画像の特徴の融合による単一のtsdfボリュームの構築という2つのステップで動作します。
異なる視点(大ベースラインや回転など)から取得した画像間のマッチング性能を向上させるため、posadconvと呼ばれる回転不変3次元畳み込みカーネルを導入する。
提案アーキテクチャの有効性は,ScanNetデータセット上で実施された多数の実験を通じて評価される。
関連論文リスト
- GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z) - Deep Two-View Structure-from-Motion Revisited [83.93809929963969]
2次元構造移動(SfM)は3次元再構成と視覚SLAMの基礎となる。
古典パイプラインの適切性を活用することで,深部2視点sfmの問題を再検討することを提案する。
本手法は,1)2つのフレーム間の密対応を予測する光フロー推定ネットワーク,2)2次元光フロー対応から相対カメラポーズを計算する正規化ポーズ推定モジュール,3)エピポーラ幾何を利用して探索空間を縮小し,密対応を洗練し,相対深度マップを推定するスケール不変深さ推定ネットワークからなる。
論文 参考訳(メタデータ) (2021-04-01T15:31:20Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - Attention Aware Cost Volume Pyramid Based Multi-view Stereo Network for
3D Reconstruction [12.728154351588053]
マルチビュー画像から3次元再構成を行うための効率的なマルチビューステレオ(MVS)ネットワークを提案する。
高分解能深度を実現するために粗粒度深度推論戦略を導入する。
論文 参考訳(メタデータ) (2020-11-25T13:34:11Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。