論文の概要: 4K-NeRF: High Fidelity Neural Radiance Fields at Ultra High Resolutions
- arxiv url: http://arxiv.org/abs/2212.04701v1
- Date: Fri, 9 Dec 2022 07:26:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 15:11:22.183531
- Title: 4K-NeRF: High Fidelity Neural Radiance Fields at Ultra High Resolutions
- Title(参考訳): 4K-NeRF:超高分解能高忠実神経放射場
- Authors: Zhongshu Wang, Lingzhi Li, Zhen Shen, Li Shen, Liefeng Bo
- Abstract要約: 超高分解能の難易度シナリオにおいて、高忠実度ビュー合成を追求するために、4K-NeRFという新規で効果的なフレームワークを提案する。
提案手法は、4K超高分解能シナリオにおける最先端の視覚的品質を実現することにより、高周波数の詳細を保持するためのレンダリング品質を大幅に向上させることができる。
- 参考スコア(独自算出の注目度): 19.380248980850727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a novel and effective framework, named 4K-NeRF, to
pursue high fidelity view synthesis on the challenging scenarios of ultra high
resolutions, building on the methodology of neural radiance fields (NeRF). The
rendering procedure of NeRF-based methods typically relies on a pixel wise
manner in which rays (or pixels) are treated independently on both training and
inference phases, limiting its representational ability on describing subtle
details especially when lifting to a extremely high resolution. We address the
issue by better exploring ray correlation for enhancing high-frequency details
benefiting from the use of geometry-aware local context. Particularly, we use
the view-consistent encoder to model geometric information effectively in a
lower resolution space and recover fine details through the view-consistent
decoder, conditioned on ray features and depths estimated by the encoder. Joint
training with patch-based sampling further facilitates our method incorporating
the supervision from perception oriented regularization beyond pixel wise loss.
Quantitative and qualitative comparisons with modern NeRF methods demonstrate
that our method can significantly boost rendering quality for retaining
high-frequency details, achieving the state-of-the-art visual quality on 4K
ultra-high-resolution scenario. Code Available at
\url{https://github.com/frozoul/4K-NeRF}
- Abstract(参考訳): 本稿では,4K-NeRFという,超高分解能の難易度シナリオにおける高忠実度ビューの合成を,ニューラルラジアンス場(NeRF)の方法論に基づく,新規で効果的なフレームワークを提案する。
通常、NeRFベースの手法のレンダリング手順は、トレーニングフェーズと推論フェーズの両方で、光線(またはピクセル)が独立に扱われる画素ワイドな方法に依存しており、特に非常に高解像度に持ち上げる際に、微妙な詳細を記述することの表現能力を制限する。
位置認識型局所コンテキストの利点を生かした高周波詳細化のための光相関の探索により,この問題に対処する。
特に、ビュー一貫性エンコーダを用いて、低解像度空間における幾何学的情報を効果的にモデル化し、ビュー一貫性デコーダを通して細部を復元する。
パッチベースサンプリングによる共同学習により,知覚指向正則化からピクセルワイズ損失への監督がさらに促進される。
最新のNeRF法と定量的に比較したところ、4K超高分解能シナリオにおける最先端の視覚的品質を実現することで、高頻度の細部を維持するためのレンダリング品質を大幅に向上できることがわかった。
コード提供: \url{https://github.com/frozoul/4K-NeRF}
関連論文リスト
- N-BVH: Neural ray queries with bounding volume hierarchies [51.430495562430565]
3Dコンピュータグラフィックスでは、シーンのメモリ使用量の大部分がポリゴンとテクスチャによるものである。
N-BVHは3次元の任意の光線クエリに応答するように設計されたニューラル圧縮アーキテクチャである。
本手法は, 視認性, 深度, 外観特性を忠実に近似する。
論文 参考訳(メタデータ) (2024-05-25T13:54:34Z) - Hyb-NeRF: A Multiresolution Hybrid Encoding for Neural Radiance Fields [12.335934855851486]
マルチレゾリューションハイブリッド符号化を用いた新しい神経放射場であるHyb-NeRFを提案する。
本稿では,Hyb-NeRFのレンダリング速度が向上し,レンダリング性能が向上し,従来の手法と比較してメモリフットプリントも低くなることを示す。
論文 参考訳(メタデータ) (2023-11-21T10:01:08Z) - Probabilistic-based Feature Embedding of 4-D Light Fields for
Compressive Imaging and Denoising [62.347491141163225]
4次元光電場(LF)は、効率的で効果的な機能埋め込みを実現する上で大きな課題となる。
様々な低次元畳み込みパターンを組み立てることで特徴埋め込みアーキテクチャを学習する確率論的特徴埋め込み(PFE)を提案する。
実世界および合成4次元LF画像において,本手法の有意な優位性を実証した。
論文 参考訳(メタデータ) (2023-06-15T03:46:40Z) - Learning Neural Duplex Radiance Fields for Real-Time View Synthesis [33.54507228895688]
本研究では,NeRFを高効率メッシュベースニューラル表現に蒸留・焼成する手法を提案する。
提案手法の有効性と優位性を,各種標準データセットの広範な実験を通じて実証する。
論文 参考訳(メタデータ) (2023-04-20T17:59:52Z) - AligNeRF: High-Fidelity Neural Radiance Fields via Alignment-Aware
Training [100.33713282611448]
我々は、高分解能データによるNeRFのトレーニングに関する最初のパイロット研究を行う。
本稿では,多層パーセプトロンと畳み込み層との結合を含む,対応する解を提案する。
私たちのアプローチは、明らかなトレーニング/テストコストを導入することなく、ほぼ無償です。
論文 参考訳(メタデータ) (2022-11-17T17:22:28Z) - PDRF: Progressively Deblurring Radiance Field for Fast and Robust Scene
Reconstruction from Blurry Images [75.87721926918874]
PDRF(Progressive Deblurring Radiance Field)について報告する。
PDRFは、ぼやけた画像から高品質な放射場を効率的に再構成する新しい手法である。
PDRF は以前の State-of-The-Art シーン再構成手法よりも15倍高速であることを示す。
論文 参考訳(メタデータ) (2022-08-17T03:42:29Z) - Deep Parametric 3D Filters for Joint Video Denoising and Illumination
Enhancement in Video Super Resolution [96.89588203312451]
本稿では,Deep Parametric 3D Filters (DP3DF) と呼ばれる新しいパラメトリック表現を提案する。
DP3DFは、ローカル情報を組み込んで、単一エンコーダ/デコーダネットワークにおいて、同時復調、照明強化、SRを効率的に実現している。
また、動的残留フレームを共有バックボーンを介してDP3DFと共同で学習し、SR品質をさらに向上させる。
論文 参考訳(メタデータ) (2022-07-05T03:57:25Z) - NeRF-SR: High-Quality Neural Radiance Fields using Super-Sampling [82.99453001445478]
主に低分解能(LR)入力を用いた高分解能(HR)新規ビュー合成のソリューションであるNeRF-SRを提案する。
提案手法は,多層パーセプトロンを用いて各点密度と色を予測するニューラルレージアンス場(NeRF)上に構築されている。
論文 参考訳(メタデータ) (2021-12-03T07:33:47Z) - A Novel Unified Model for Multi-exposure Stereo Coding Based on Low Rank
Tucker-ALS and 3D-HEVC [0.6091702876917279]
テンソル低ランク近似に基づくマルチ露光ステレオ画像の効率的な符号化法を提案する。
マルチ露光融合によりデコーダのHDRステレオ出力が生成され、リアリズムと両眼3D深度が向上する。
3D-HEVCによる符号化は、低ランク近似表現におけるフレーム内、ビュー間、コンポーネント間冗長性を利用して提案されたスキーム効率を向上させる。
論文 参考訳(メタデータ) (2021-04-10T10:10:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。