論文の概要: BundleRecon: Ray Bundle-Based 3D Neural Reconstruction
- arxiv url: http://arxiv.org/abs/2305.07342v1
- Date: Fri, 12 May 2023 09:39:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 13:39:36.741941
- Title: BundleRecon: Ray Bundle-Based 3D Neural Reconstruction
- Title(参考訳): BundleRecon:光束ベース3Dニューラルリコン
- Authors: Weikun Zhang, Jianke Zhu
- Abstract要約: ニューラル暗黙的多視点再構成のための拡張モデル BundleRecon を提案する。
既存のアプローチでは、サンプリングは単一のピクセルに対応する単一の光線によって行われる。
対照的に、我々のモデルは、隣接するピクセルからの情報を組み込んだ光束を用いてピクセルのパッチをサンプリングする。
- 参考スコア(独自算出の注目度): 9.478278728273336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing popularity of neural rendering, there has been an increasing
number of neural implicit multi-view reconstruction methods. While many models
have been enhanced in terms of positional encoding, sampling, rendering, and
other aspects to improve the reconstruction quality, current methods do not
fully leverage the information among neighboring pixels during the
reconstruction process. To address this issue, we propose an enhanced model
called BundleRecon. In the existing approaches, sampling is performed by a
single ray that corresponds to a single pixel. In contrast, our model samples a
patch of pixels using a bundle of rays, which incorporates information from
neighboring pixels. Furthermore, we design bundle-based constraints to further
improve the reconstruction quality. Experimental results demonstrate that
BundleRecon is compatible with the existing neural implicit multi-view
reconstruction methods and can improve their reconstruction quality.
- Abstract(参考訳): ニューラルレンダリングの人気が高まっているため、ニューラル暗黙のマルチビュー再構成手法が増えている。
多くのモデルが位置符号化、サンプリング、レンダリングなどの面で改良され、復元品質が向上しているが、現在の手法では、復元過程において隣り合うピクセル間の情報を十分に活用していない。
この問題に対処するため、BundleReconと呼ばれる拡張モデルを提案する。
既存のアプローチでは、サンプリングは単一のピクセルに対応する単一の光線によって行われる。
対照的に、我々のモデルは、隣接するピクセルの情報を含む光束を用いてピクセルのパッチをサンプリングする。
さらに,バンドルベースの制約を設計して,再構築品質をさらに向上する。
実験の結果, BundleReconは既存のニューラル暗黙的多視点再構成法と互換性があり,再現性の向上が期待できることがわかった。
関連論文リスト
- MaRINeR: Enhancing Novel Views by Matching Rendered Images with Nearby References [49.71130133080821]
MaRINeRは、近くのマッピング画像の情報を活用して、ターゲット視点のレンダリングを改善する方法である。
暗黙のシーン表現と暗黙のシーン表現の両方から、定量的な指標と定性的な例のレンダリングの改善を示す。
論文 参考訳(メタデータ) (2024-07-18T17:50:03Z) - GTR: Improving Large 3D Reconstruction Models through Geometry and Texture Refinement [51.97726804507328]
マルチビュー画像から3次元メッシュを再構成する手法を提案する。
提案手法は, 変圧器を用いたトリプレーンジェネレータとニューラルレージアンスフィールド(NeRF)モデルを用いた大規模再構成モデルから着想を得たものである。
論文 参考訳(メタデータ) (2024-06-09T05:19:24Z) - ReconFusion: 3D Reconstruction with Diffusion Priors [104.73604630145847]
本稿では,数枚の写真を用いて現実のシーンを再構成するReconFusionを提案する。
提案手法は,合成および多視点データセットに基づいて訓練された新規なビュー合成に先立って拡散を利用する。
本手法は,観測領域の外観を保ちながら,非拘束領域における現実的な幾何学とテクスチャを合成する。
論文 参考訳(メタデータ) (2023-12-05T18:59:58Z) - NeuManifold: Neural Watertight Manifold Reconstruction with Efficient
and High-Quality Rendering Support [45.68296352822415]
マルチビュー入力画像から高品質な水密多様体メッシュを生成する手法を提案する。
提案手法は両世界の利点を組み合わせ, ニューラルネットワークから得られる幾何学と, よりコンパクトな神経テクスチャ表現を最適化する。
論文 参考訳(メタデータ) (2023-05-26T17:59:21Z) - VolRecon: Volume Rendering of Signed Ray Distance Functions for
Generalizable Multi-View Reconstruction [64.09702079593372]
VolRecon は Signed Ray Distance Function (SRDF) を用いた新しい一般化可能な暗黙的再構成法である
DTUデータセットでは、VolReconはスパースビュー再構築においてSparseNeuSを約30%上回り、フルビュー再構築においてMVSNetと同等の精度を達成する。
論文 参考訳(メタデータ) (2022-12-15T18:59:54Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - BNV-Fusion: Dense 3D Reconstruction using Bi-level Neural Volume Fusion [85.24673400250671]
ニューラル・ボリューム・フュージョン (BNV-Fusion) は, ニューラル・暗黙表現とニューラル・レンダリングの最近の進歩を活用して高密度3次元再構成を行う。
新しい深度マップをグローバルな暗黙的表現に漸進的に統合するために、我々は新しい二段階融合戦略を提案する。
提案手法を定量的に定性的に評価し,既存手法よりも有意な改善を示した。
論文 参考訳(メタデータ) (2022-04-03T19:33:09Z) - PERF: Performant, Explicit Radiance Fields [1.933681537640272]
放射場に基づく画像に基づく3次元再構成手法を提案する。
体積再構成の問題は非線形最小二乗問題として定式化され、ニューラルネットワークを使わずに明示的に解かれる。
論文 参考訳(メタデータ) (2021-12-10T15:29:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。