論文の概要: PERF: Performant, Explicit Radiance Fields
- arxiv url: http://arxiv.org/abs/2112.05598v1
- Date: Fri, 10 Dec 2021 15:29:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 14:46:12.505056
- Title: PERF: Performant, Explicit Radiance Fields
- Title(参考訳): perf: performant, explicit radiance フィールド
- Authors: Sverker Rasmuson, Erik Sintorn, Ulf Assarsson
- Abstract要約: 放射場に基づく画像に基づく3次元再構成手法を提案する。
体積再構成の問題は非線形最小二乗問題として定式化され、ニューラルネットワークを使わずに明示的に解かれる。
- 参考スコア(独自算出の注目度): 1.933681537640272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel way of approaching image-based 3D reconstruction based on
radiance fields. The problem of volumetric reconstruction is formulated as a
non-linear least-squares problem and solved explicitly without the use of
neural networks. This enables the use of solvers with a higher rate of
convergence than what is typically used for neural networks, and fewer
iterations are required until convergence. The volume is represented using a
grid of voxels, with the scene surrounded by a hierarchy of environment maps.
This makes it possible to get clean reconstructions of 360{\deg} scenes where
the foreground and background is separated. A number of synthetic and real
scenes from well known benchmark-suites are successfully reconstructed with
quality on par with state-of-the-art methods, but at significantly reduced
reconstruction times.
- Abstract(参考訳): 本稿では,放射能場に基づく画像に基づく3次元再構成手法を提案する。
体積再構成の問題は非線形最小二乗問題として定式化され、ニューラルネットワークを用いることなく明示的に解決される。
これにより、ニューラルネットワークで一般的に使用されるものよりも収束率の高いソルバの使用が可能になり、収束までイテレーションを少なくすることができる。
ボリュームはボクセルのグリッドで表現され、シーンは環境マップの階層で囲まれている。
これにより、前景と背景が分離した360{\deg}シーンのクリーンな再構築が可能になる。
良く知られたベンチマークスイートの合成シーンや実際のシーンは、最先端の手法に匹敵するクオリティでうまく再構築されるが、リコンストラクション時間が大幅に短縮される。
関連論文リスト
- DGTR: Distributed Gaussian Turbo-Reconstruction for Sparse-View Vast Scenes [81.56206845824572]
新規ビュー合成(NVS)アプローチは、広大なシーン再構築において重要な役割を担っている。
大規模な環境下では、復元の質が悪くなる場合が少なくない。
本稿では,スパース・ビュー・ワイド・シーンのための効率的なガウス再構成のための分散フレームワークであるDGTRを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:51:44Z) - DistGrid: Scalable Scene Reconstruction with Distributed Multi-resolution Hash Grid [10.458776364195796]
本研究では,DistGrid という名前のマルチレゾリューション・ハッシュ・グリッドを用いた拡張性のあるシーン再構築手法を提案する。
提案手法は,評価されたすべての大規模シーンにおいて既存の手法よりも優れており,視覚的に妥当なシーン再構成を提供する。
論文 参考訳(メタデータ) (2024-05-07T15:41:20Z) - 3D Reconstruction with Generalizable Neural Fields using Scene Priors [71.37871576124789]
シーンプライオリティ(NFP)を取り入れたトレーニング一般化型ニューラルフィールドを提案する。
NFPネットワークは、任意のシングルビューRGB-D画像を符号付き距離と放射値にマッピングする。
融合モジュールを外した体積空間内の個々のフレームをマージすることにより、完全なシーンを再構築することができる。
論文 参考訳(メタデータ) (2023-09-26T18:01:02Z) - BundleRecon: Ray Bundle-Based 3D Neural Reconstruction [9.478278728273336]
ニューラル暗黙的多視点再構成のための拡張モデル BundleRecon を提案する。
既存のアプローチでは、サンプリングは単一のピクセルに対応する単一の光線によって行われる。
対照的に、我々のモデルは、隣接するピクセルからの情報を組み込んだ光束を用いてピクセルのパッチをサンプリングする。
論文 参考訳(メタデータ) (2023-05-12T09:39:08Z) - VolRecon: Volume Rendering of Signed Ray Distance Functions for
Generalizable Multi-View Reconstruction [64.09702079593372]
VolRecon は Signed Ray Distance Function (SRDF) を用いた新しい一般化可能な暗黙的再構成法である
DTUデータセットでは、VolReconはスパースビュー再構築においてSparseNeuSを約30%上回り、フルビュー再構築においてMVSNetと同等の精度を達成する。
論文 参考訳(メタデータ) (2022-12-15T18:59:54Z) - Learning Neural Radiance Fields from Multi-View Geometry [1.1011268090482573]
画像に基づく3次元再構成のために,多視点幾何アルゴリズムとニューラルレージアンス場(NeRF)を組み合わせたMVG-NeRF(MVG-NeRF)というフレームワークを提案する。
NeRFは暗黙の3D表現の分野に革命をもたらした。
論文 参考訳(メタデータ) (2022-10-24T08:53:35Z) - ERF: Explicit Radiance Field Reconstruction From Scratch [12.254150867994163]
センサのポーズとキャリブレーションでシーンの一連の画像を処理し,フォトリアルなデジタルモデルを推定する,新しい高密度3次元再構成手法を提案する。
重要な革新の1つは、根底にある体積表現が完全に明示的であることである。
我々は,本手法が汎用的かつ実用的であることを示し,撮影に高度に制御された実験室の設置は必要とせず,多種多様な物体でシーンを再構築することができることを示した。
論文 参考訳(メタデータ) (2022-02-28T19:37:12Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - MVSNeRF: Fast Generalizable Radiance Field Reconstruction from
Multi-View Stereo [52.329580781898116]
MVSNeRFは、ビュー合成のための神経放射場を効率的に再構築できる新しいニューラルレンダリング手法である。
高密度にキャプチャされた画像に対して,シーン毎の最適化を考慮に入れたニューラルネットワークの先行研究とは異なり,高速ネットワーク推論により,近傍の3つの入力ビューのみからラミアンスフィールドを再構成できる汎用ディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T13:15:23Z) - Non-line-of-Sight Imaging via Neural Transient Fields [52.91826472034646]
NLOS(non-Line-of-Sight)イメージングのためのニューラルモデリングフレームワークを提案する。
最近のNeRF(Neural Radiance Field)アプローチにインスパイアされた我々は、ニューラルネットワーク(NeTF)を表現するために多層パーセプトロン(MLP)を使用する。
共焦点と非共焦点の両方に適用可能な球状ボリュームnetf再構成パイプラインを定式化する。
論文 参考訳(メタデータ) (2021-01-02T05:20:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。