論文の概要: VolRecon: Volume Rendering of Signed Ray Distance Functions for
Generalizable Multi-View Reconstruction
- arxiv url: http://arxiv.org/abs/2212.08067v2
- Date: Mon, 3 Apr 2023 06:54:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 23:31:12.415911
- Title: VolRecon: Volume Rendering of Signed Ray Distance Functions for
Generalizable Multi-View Reconstruction
- Title(参考訳): VolRecon: 一般化可能な多視点再構成のための符号付き距離関数のボリュームレンダリング
- Authors: Yufan Ren, Fangjinhua Wang, Tong Zhang, Marc Pollefeys and Sabine
S\"usstrunk
- Abstract要約: VolRecon は Signed Ray Distance Function (SRDF) を用いた新しい一般化可能な暗黙的再構成法である
DTUデータセットでは、VolReconはスパースビュー再構築においてSparseNeuSを約30%上回り、フルビュー再構築においてMVSNetと同等の精度を達成する。
- 参考スコア(独自算出の注目度): 64.09702079593372
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The success of the Neural Radiance Fields (NeRF) in novel view synthesis has
inspired researchers to propose neural implicit scene reconstruction. However,
most existing neural implicit reconstruction methods optimize per-scene
parameters and therefore lack generalizability to new scenes. We introduce
VolRecon, a novel generalizable implicit reconstruction method with Signed Ray
Distance Function (SRDF). To reconstruct the scene with fine details and little
noise, VolRecon combines projection features aggregated from multi-view
features, and volume features interpolated from a coarse global feature volume.
Using a ray transformer, we compute SRDF values of sampled points on a ray and
then render color and depth. On DTU dataset, VolRecon outperforms SparseNeuS by
about 30% in sparse view reconstruction and achieves comparable accuracy as
MVSNet in full view reconstruction. Furthermore, our approach exhibits good
generalization performance on the large-scale ETH3D benchmark.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)が新しいビュー合成で成功し、研究者はニューラル・暗黙のシーン再構成を提案するようになった。
しかし、既存のほとんどの暗黙的再構成手法はシーンごとのパラメータを最適化し、新しいシーンへの一般化性に欠ける。
本稿では,SRDF(Signed Ray Distance Function)を用いた新しい一般化可能な暗黙的再構成手法であるVolReconを紹介する。
細かいディテールとノイズが少ないシーンを再構築するために、volreconはマルチビュー特徴から集約された投影特徴と、粗いグローバル特徴量から補間されたボリューム特徴を組み合わせる。
放射光変換器を用いて試料点のSRDF値を算出し,色と深さを描画する。
DTUデータセットでは、VolReconはスパースビュー再構築においてSparseNeuSを約30%上回り、フルビュー再構築においてMVSNetと同等の精度を達成する。
さらに,提案手法は大規模ETH3Dベンチマークにおいて優れた一般化性能を示す。
関連論文リスト
- UniSDF: Unifying Neural Representations for High-Fidelity 3D
Reconstruction of Complex Scenes with Reflections [92.38975002642455]
大規模な複雑なシーンをリフレクションで再構成できる汎用3次元再構成手法UniSDFを提案する。
提案手法は,複雑な大規模シーンを細部と反射面で頑健に再構築することができる。
論文 参考訳(メタデータ) (2023-12-20T18:59:42Z) - ReconFusion: 3D Reconstruction with Diffusion Priors [104.73604630145847]
本稿では,数枚の写真を用いて現実のシーンを再構成するReconFusionを提案する。
提案手法は,合成および多視点データセットに基づいて訓練された新規なビュー合成に先立って拡散を利用する。
本手法は,観測領域の外観を保ちながら,非拘束領域における現実的な幾何学とテクスチャを合成する。
論文 参考訳(メタデータ) (2023-12-05T18:59:58Z) - RNb-NeuS: Reflectance and Normal-based Multi-View 3D Reconstruction [0.9842069223476793]
本稿では,光度ステレオにより得られる多視点反射率と正規写像を統合するための多目的パラダイムを提案する。
提案手法では, 反射率と正規度の画素ワイドな共同パラメータ化を, 放射光のベクトルとして用いた。
これは、高い曲率または低い視認性を持つ領域の詳細な3D再構成を大幅に改善する。
論文 参考訳(メタデータ) (2023-12-02T19:49:27Z) - Geometry-Guided Ray Augmentation for Neural Surface Reconstruction with
Sparse Views [11.879175599630859]
スパース多視点画像から3次元シーンとオブジェクトを再構成する新しい手法を提案する。
提案手法はRay Augmentation(RayAug)と呼ばれ,事前トレーニングを必要とせず,DTUおよびBlenderデータセット上で優れた結果が得られる。
論文 参考訳(メタデータ) (2023-10-09T07:42:33Z) - Anti-Aliased Neural Implicit Surfaces with Encoding Level of Detail [54.03399077258403]
本稿では,高頻度幾何細部リカバリとアンチエイリアス化された新しいビューレンダリングのための効率的なニューラル表現であるLoD-NeuSを提案する。
我々の表現は、光線に沿った円錐状のフラストラム内の多面体化から空間特徴を集約する。
論文 参考訳(メタデータ) (2023-09-19T05:44:00Z) - ReTR: Modeling Rendering Via Transformer for Generalizable Neural
Surface Reconstruction [24.596408773471477]
レコンストラクションTRansformer (ReTR) は、トランスフォーマーアーキテクチャをレンダリングプロセスに活用する新しいフレームワークである。
色空間ではなく高次元の特徴空間内で操作することで、ReTRはソースビューの投影色に対する感度を緩和する。
論文 参考訳(メタデータ) (2023-05-30T08:25:23Z) - BNV-Fusion: Dense 3D Reconstruction using Bi-level Neural Volume Fusion [85.24673400250671]
ニューラル・ボリューム・フュージョン (BNV-Fusion) は, ニューラル・暗黙表現とニューラル・レンダリングの最近の進歩を活用して高密度3次元再構成を行う。
新しい深度マップをグローバルな暗黙的表現に漸進的に統合するために、我々は新しい二段階融合戦略を提案する。
提案手法を定量的に定性的に評価し,既存手法よりも有意な改善を示した。
論文 参考訳(メタデータ) (2022-04-03T19:33:09Z) - PERF: Performant, Explicit Radiance Fields [1.933681537640272]
放射場に基づく画像に基づく3次元再構成手法を提案する。
体積再構成の問題は非線形最小二乗問題として定式化され、ニューラルネットワークを使わずに明示的に解かれる。
論文 参考訳(メタデータ) (2021-12-10T15:29:00Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。