論文の概要: Balanced Spherical Grid for Egocentric View Synthesis
- arxiv url: http://arxiv.org/abs/2303.12408v2
- Date: Fri, 24 Mar 2023 08:36:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 11:21:39.442245
- Title: Balanced Spherical Grid for Egocentric View Synthesis
- Title(参考訳): エゴセントリックビュー合成のための平衡球面格子
- Authors: Changwoon Choi, Sang Min Kim, Young Min Kim
- Abstract要約: EgoNeRFは、VR資産のための大規模な現実世界環境を再構築するための実用的なソリューションである。
カジュアルにキャプチャされた360度ビデオを数秒間与えると、EgoNeRFは効率的に神経放射場を作ることができる。
- 参考スコア(独自算出の注目度): 6.518792457424123
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present EgoNeRF, a practical solution to reconstruct large-scale
real-world environments for VR assets. Given a few seconds of casually captured
360 video, EgoNeRF can efficiently build neural radiance fields which enable
high-quality rendering from novel viewpoints. Motivated by the recent
acceleration of NeRF using feature grids, we adopt spherical coordinate instead
of conventional Cartesian coordinate. Cartesian feature grid is inefficient to
represent large-scale unbounded scenes because it has a spatially uniform
resolution, regardless of distance from viewers. The spherical parameterization
better aligns with the rays of egocentric images, and yet enables factorization
for performance enhancement. However, the na\"ive spherical grid suffers from
irregularities at two poles, and also cannot represent unbounded scenes. To
avoid singularities near poles, we combine two balanced grids, which results in
a quasi-uniform angular grid. We also partition the radial grid exponentially
and place an environment map at infinity to represent unbounded scenes.
Furthermore, with our resampling technique for grid-based methods, we can
increase the number of valid samples to train NeRF volume. We extensively
evaluate our method in our newly introduced synthetic and real-world egocentric
360 video datasets, and it consistently achieves state-of-the-art performance.
- Abstract(参考訳): egonerfは,vr資産のための大規模実環境を再構築するための実用的なソリューションである。
カジュアルにキャプチャされた360度ビデオの数秒を与えられたEgoNeRFは、ニューラルラジアンスフィールドを効率的に構築し、新しい視点から高品質なレンダリングを可能にする。
特徴格子を用いた最近のNeRF加速により,従来のカルト座標の代わりに球面座標を採用する。
カーテシアン・フィーチャー・グリッドは、視聴者からの距離に関係なく空間的に均一な解像度を持つため、大規模な境界のないシーンを表現するのに非効率である。
球面パラメタライゼーションは、エゴ中心画像の光線との整合性が良く、性能向上のための分解が可能である。
しかし、na\\\ 球面格子は2つの極における不規則性に悩まされており、非有界な場面も表現できない。
極近傍の特異点を避けるため、2つの平衡格子を結合し、準一様角格子となる。
また、指数関数的にラジアルグリッドを分割し、無限大の環境マップを非有界シーンを表す。
さらに,グリッド方式の再サンプリング手法により,NeRFボリュームのトレーニングに有効なサンプル数を増やすことができる。
今回紹介した合成および実世界エゴセントリック360度ビデオデータセットにおいて,本手法を広範囲に評価し,最先端の性能を一貫して達成した。
関連論文リスト
- Aerial-NeRF: Adaptive Spatial Partitioning and Sampling for Large-Scale Aerial Rendering [10.340739248752516]
複雑な空中シーンを高精度でレンダリングするためのAerial-NeRFを提案する。
当社のモデルでは,複数の競合に比べて4倍以上の高速レンダリングを実現しています。
2つのパブリックな大規模空中データセットに対して、最先端の新たな結果が得られた。
論文 参考訳(メタデータ) (2024-05-10T02:57:02Z) - Mip-Grid: Anti-aliased Grid Representations for Neural Radiance Fields [12.910072009005065]
我々は、反エイリアス手法をグリッドベースの放射場表現に組み込む新しいアプローチであるmip-blurを提案する。
提案手法は,共有グリッド表現上に単純な畳み込み演算を適用してマルチスケールグリッドを生成する。
論文 参考訳(メタデータ) (2024-02-22T00:45:40Z) - HybridNeRF: Efficient Neural Rendering via Adaptive Volumetric Surfaces [71.1071688018433]
ニューラル放射場は、最先端のビュー合成品質を提供するが、レンダリングが遅くなる傾向がある。
本稿では,ほとんどの物体を表面としてレンダリングすることで,両表現の強みを生かしたHybridNeRFを提案する。
仮想現実分解能(2Kx2K)のリアルタイムフレームレート(少なくとも36FPS)を達成しながら、エラー率を15~30%改善する。
論文 参考訳(メタデータ) (2023-12-05T22:04:49Z) - PyNeRF: Pyramidal Neural Radiance Fields [51.25406129834537]
本研究では,異なる空間グリッド解像度でモデルヘッドを訓練することにより,グリッドモデルへの簡単な修正を提案する。
レンダリング時には、単に粗いグリッドを使用して、より大きなボリュームをカバーするサンプルをレンダリングします。
Mip-NeRFと比較して、60倍高速なトレーニングをしながらエラー率を20%削減する。
論文 参考訳(メタデータ) (2023-11-30T23:52:46Z) - Multi-Space Neural Radiance Fields [74.46513422075438]
既存のニューラルレージアンス場(NeRF)法は反射物体の存在に悩まされている。
並列部分空間における特徴場の群を用いてシーンを表現するマルチスペースニューラルレイディアンス場(MS-NeRF)を提案する。
提案手法は,高品質シーンのレンダリングにおいて,既存の単一空間NeRF法よりも優れていた。
論文 参考訳(メタデータ) (2023-05-07T13:11:07Z) - Learning Neural Duplex Radiance Fields for Real-Time View Synthesis [33.54507228895688]
本研究では,NeRFを高効率メッシュベースニューラル表現に蒸留・焼成する手法を提案する。
提案手法の有効性と優位性を,各種標準データセットの広範な実験を通じて実証する。
論文 参考訳(メタデータ) (2023-04-20T17:59:52Z) - Zip-NeRF: Anti-Aliased Grid-Based Neural Radiance Fields [64.13207562222094]
我々は、mip-NeRF 360とグリッドベースモデルを組み合わせた手法が、どちらの手法よりも8%から77%低い誤差率を発生し、mip-NeRF 360より24倍速く訓練できることを示します。
論文 参考訳(メタデータ) (2023-04-13T17:55:12Z) - Neural Residual Radiance Fields for Streamably Free-Viewpoint Videos [69.22032459870242]
本稿では,Residual Radiance Field(ReRF)という新しい手法を提案する。
このような戦略は品質を犠牲にすることなく大きな動きを扱えることを示す。
ReRFに基づいて,3桁の圧縮率を達成する特別なFVVを設計し,ダイナミックシーンの長期FVVのオンラインストリーミングをサポートするReRFプレーヤを提供する。
論文 参考訳(メタデータ) (2023-04-10T08:36:00Z) - Grid-guided Neural Radiance Fields for Large Urban Scenes [146.06368329445857]
近年のアプローチでは、シーンを地理的に分割し、複数のサブNeRFを採用して各領域を個別にモデル化する手法が提案されている。
もう一つの解決策は、計算効率が良く、大きなシーンに自然にスケールできる機能グリッド表現を使用することである。
本稿では,大規模都市における高忠実度レンダリングを実現し,計算効率を向上する枠組みを提案する。
論文 参考訳(メタデータ) (2023-03-24T13:56:45Z) - DeRF: Decomposed Radiance Fields [30.784481193893345]
本稿では,この問題を緩和できる空間分解に基づく手法を提案する。
本稿では,この目的のためにヴォロノイ空間分解が望ましいことを示す。
実験の結果,実世界のシーンでは,NeRFよりも3倍効率の良い推論が可能であることがわかった。
論文 参考訳(メタデータ) (2020-11-25T02:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。