論文の概要: End-to-End Multi-View Structure-from-Motion with Hypercorrelation
Volumes
- arxiv url: http://arxiv.org/abs/2209.06926v1
- Date: Wed, 14 Sep 2022 20:58:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:53:51.792199
- Title: End-to-End Multi-View Structure-from-Motion with Hypercorrelation
Volumes
- Title(参考訳): ハイパー相関ボリュームを用いたエンド・ツー・エンドのマルチビュー構造
- Authors: Qiao Chen, Charalambos Poullis
- Abstract要約: この問題に対処するために深層学習技術が提案されている。
我々は現在最先端の2次元構造であるSfM(SfM)のアプローチを改善している。
一般的なマルチビューのケースに拡張し、複雑なベンチマークデータセットDTUで評価する。
- 参考スコア(独自算出の注目度): 7.99536002595393
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Image-based 3D reconstruction is one of the most important tasks in Computer
Vision with many solutions proposed over the last few decades. The objective is
to extract metric information i.e. the geometry of scene objects directly from
images. These can then be used in a wide range of applications such as film,
games, virtual reality, etc. Recently, deep learning techniques have been
proposed to tackle this problem. They rely on training on vast amounts of data
to learn to associate features between images through deep convolutional neural
networks and have been shown to outperform traditional procedural techniques.
In this paper, we improve on the state-of-the-art two-view
structure-from-motion(SfM) approach of [11] by incorporating 4D correlation
volume for more accurate feature matching and reconstruction. Furthermore, we
extend it to the general multi-view case and evaluate it on the complex
benchmark dataset DTU [4]. Quantitative evaluations and comparisons with
state-of-the-art multi-view 3D reconstruction methods demonstrate its
superiority in terms of the accuracy of reconstructions.
- Abstract(参考訳): 画像に基づく3D再構成はコンピュータビジョンで最も重要な課題の一つであり、過去数十年にわたって多くの解決策が提案されてきた。
目的は、画像から直接シーンオブジェクトの幾何を計測情報として抽出することである。
これらは、映画、ゲーム、バーチャルリアリティなど、幅広いアプリケーションで使用することができる。
近年,この問題に対処する深層学習技術が提案されている。
彼らは、深い畳み込みニューラルネットワークを通じて画像間の特徴を関連付けるために、膨大なデータのトレーニングに依存しており、従来の手続き技術よりも優れていることが示されている。
本稿では,より正確な特徴マッチングと再構成のために4次元相関ボリュームを組み込むことにより,[11]の動作からの2次元構造(SfM)アプローチを改善する。
さらに、これを一般的なマルチビューケースに拡張し、複雑なベンチマークデータセットDTU[4]で評価する。
現状のマルチビュー3次元再構成手法との比較により, 再現精度の点でその優位性を示す。
関連論文リスト
- Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - HeadRecon: High-Fidelity 3D Head Reconstruction from Monocular Video [37.53752896927615]
任意のモノクラービデオから高忠実度3Dヘッドモデルの再構成について検討する。
本稿では,これらの問題に対処するために,事前誘導型動的暗黙的ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T12:38:56Z) - Implicit Shape and Appearance Priors for Few-Shot Full Head
Reconstruction [17.254539604491303]
本稿では,数発のフル3次元頭部再構成の問題点に対処する。
我々は、座標に基づく表現に先立って確率的形状と外観を組み込むことにより、これを達成した。
我々はH3DSデータセットを拡張し、60個の高解像度3Dフルヘッドスキャンと対応する画像とマスクを含む。
論文 参考訳(メタデータ) (2023-10-12T07:35:30Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - FineRecon: Depth-aware Feed-forward Network for Detailed 3D
Reconstruction [13.157400338544177]
ポーズ画像からの3次元再構成に関する最近の研究は、深層ニューラルネットワークを用いてシーンレベルの3次元幾何を直接推定できることを実証している。
推論に基づく3次元再構成の忠実度を改善するための有効な3つの方法を提案する。
提案手法はスムーズかつ高精度な再構成を行い,多深度および3次元再構成の指標において顕著な改善が見られた。
論文 参考訳(メタデータ) (2023-04-04T02:50:29Z) - A Learning-Based 3D EIT Image Reconstruction Method [3.2116198597240846]
本稿では,ニューロンネットワーク(TN-Net)を用いた3次元EIT画像再構成のための学習的アプローチを提案する。
シミュレーションおよび実験結果から,TN-Netの性能と一般化能力は,一般的な3次元EIT画像再構成アルゴリズムと比較して優れていた。
論文 参考訳(メタデータ) (2022-08-30T12:00:43Z) - VolumeFusion: Deep Depth Fusion for 3D Scene Reconstruction [71.83308989022635]
本稿では、ディープニューラルネットワークを用いた従来の2段階フレームワークの複製により、解釈可能性と結果の精度が向上することを提唱する。
ネットワークは,1)深部MVS技術を用いた局所深度マップの局所計算,2)深部マップと画像の特徴を融合させて単一のTSDFボリュームを構築する。
異なる視点から取得した画像間のマッチング性能を改善するために,PosedConvと呼ばれる回転不変な3D畳み込みカーネルを導入する。
論文 参考訳(メタデータ) (2021-08-19T11:33:58Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Multi-view 3D Reconstruction with Transformer [34.756336770583154]
シーケンス・トゥ・シークエンス予測問題として,マルチビュー3D再構成を再構成する。
本稿では,3次元ボリューム変換器(VolT)という新しいフレームワークを提案する。
パラメータの少ないマルチビュー再構成で、最新鋭の精度を実現。
論文 参考訳(メタデータ) (2021-03-24T03:14:49Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。