論文の概要: 4K-NeRF: High Fidelity Neural Radiance Fields at Ultra High Resolutions
- arxiv url: http://arxiv.org/abs/2212.04701v2
- Date: Tue, 4 Apr 2023 02:42:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 18:16:19.906857
- Title: 4K-NeRF: High Fidelity Neural Radiance Fields at Ultra High Resolutions
- Title(参考訳): 4K-NeRF:超高分解能高忠実神経放射場
- Authors: Zhongshu Wang, Lingzhi Li, Zhen Shen, Li Shen, Liefeng Bo
- Abstract要約: 超高分解能の難易度シナリオにおいて、高忠実度ビュー合成を追求するために、4K-NeRFという新規で効果的なフレームワークを提案する。
本稿では,高頻度詳細回復のために線量相関を探索し,この問題に対処する。
提案手法は, 4K超高分解能シナリオにおいて, 最新のNeRF法と比較して, 高周波数細部でのレンダリング品質を大幅に向上させることができる。
- 参考スコア(独自算出の注目度): 19.380248980850727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a novel and effective framework, named 4K-NeRF, to
pursue high fidelity view synthesis on the challenging scenarios of ultra high
resolutions, building on the methodology of neural radiance fields (NeRF). The
rendering procedure of NeRF-based methods typically relies on a pixel-wise
manner in which rays (or pixels) are treated independently on both training and
inference phases, limiting its representational ability on describing subtle
details, especially when lifting to a extremely high resolution. We address the
issue by exploring ray correlation to enhance high-frequency details recovery.
Particularly, we use the 3D-aware encoder to model geometric information
effectively in a lower resolution space and recover fine details through the
3D-aware decoder, conditioned on ray features and depths estimated by the
encoder. Joint training with patch-based sampling further facilitates our
method incorporating the supervision from perception oriented regularization
beyond pixel-wise loss. Benefiting from the use of geometry-aware local
context, our method can significantly boost rendering quality on high-frequency
details compared with modern NeRF methods, and achieve the state-of-the-art
visual quality on 4K ultra-high-resolution scenarios. Code Available at
\url{https://github.com/frozoul/4K-NeRF}
- Abstract(参考訳): 本稿では,4K-NeRFという,超高分解能の難易度シナリオにおける高忠実度ビューの合成を,ニューラルラジアンス場(NeRF)の方法論に基づく,新規で効果的なフレームワークを提案する。
通常、NeRFベースの手法のレンダリング手順は、トレーニングフェーズと推論フェーズの両方で、光線(またはピクセル)が独立して扱われるピクセルワイズ方式に依存しており、特に非常に高解像度に持ち上げる場合、微妙な詳細を記述するための表現能力を制限する。
本稿では,高頻度詳細回復のために線量相関を探索し,この問題に対処する。
特に,3d-awareエンコーダを用いて,低分解能空間における幾何学情報を効果的にモデル化し,3d-awareデコーダを通じて詳細な詳細を復元する。
パッチベースサンプリングによる共同学習は,知覚指向正規化からピクセル単位の損失までを監督することをさらに促進する。
ジオメトリアウェアな局所コンテキストを用いることにより,最新のnerf法に比べて高周波ディテールのレンダリング品質を著しく向上させ,4k超高分解能シナリオにおいて最先端の視覚品質を実現する。
コード提供: \url{https://github.com/frozoul/4K-NeRF}
関連論文リスト
- N-BVH: Neural ray queries with bounding volume hierarchies [51.430495562430565]
3Dコンピュータグラフィックスでは、シーンのメモリ使用量の大部分がポリゴンとテクスチャによるものである。
N-BVHは3次元の任意の光線クエリに応答するように設計されたニューラル圧縮アーキテクチャである。
本手法は, 視認性, 深度, 外観特性を忠実に近似する。
論文 参考訳(メタデータ) (2024-05-25T13:54:34Z) - Hyb-NeRF: A Multiresolution Hybrid Encoding for Neural Radiance Fields [12.335934855851486]
マルチレゾリューションハイブリッド符号化を用いた新しい神経放射場であるHyb-NeRFを提案する。
本稿では,Hyb-NeRFのレンダリング速度が向上し,レンダリング性能が向上し,従来の手法と比較してメモリフットプリントも低くなることを示す。
論文 参考訳(メタデータ) (2023-11-21T10:01:08Z) - Probabilistic-based Feature Embedding of 4-D Light Fields for
Compressive Imaging and Denoising [62.347491141163225]
4次元光電場(LF)は、効率的で効果的な機能埋め込みを実現する上で大きな課題となる。
様々な低次元畳み込みパターンを組み立てることで特徴埋め込みアーキテクチャを学習する確率論的特徴埋め込み(PFE)を提案する。
実世界および合成4次元LF画像において,本手法の有意な優位性を実証した。
論文 参考訳(メタデータ) (2023-06-15T03:46:40Z) - Learning Neural Duplex Radiance Fields for Real-Time View Synthesis [33.54507228895688]
本研究では,NeRFを高効率メッシュベースニューラル表現に蒸留・焼成する手法を提案する。
提案手法の有効性と優位性を,各種標準データセットの広範な実験を通じて実証する。
論文 参考訳(メタデータ) (2023-04-20T17:59:52Z) - AligNeRF: High-Fidelity Neural Radiance Fields via Alignment-Aware
Training [100.33713282611448]
我々は、高分解能データによるNeRFのトレーニングに関する最初のパイロット研究を行う。
本稿では,多層パーセプトロンと畳み込み層との結合を含む,対応する解を提案する。
私たちのアプローチは、明らかなトレーニング/テストコストを導入することなく、ほぼ無償です。
論文 参考訳(メタデータ) (2022-11-17T17:22:28Z) - PDRF: Progressively Deblurring Radiance Field for Fast and Robust Scene
Reconstruction from Blurry Images [75.87721926918874]
PDRF(Progressive Deblurring Radiance Field)について報告する。
PDRFは、ぼやけた画像から高品質な放射場を効率的に再構成する新しい手法である。
PDRF は以前の State-of-The-Art シーン再構成手法よりも15倍高速であることを示す。
論文 参考訳(メタデータ) (2022-08-17T03:42:29Z) - Deep Parametric 3D Filters for Joint Video Denoising and Illumination
Enhancement in Video Super Resolution [96.89588203312451]
本稿では,Deep Parametric 3D Filters (DP3DF) と呼ばれる新しいパラメトリック表現を提案する。
DP3DFは、ローカル情報を組み込んで、単一エンコーダ/デコーダネットワークにおいて、同時復調、照明強化、SRを効率的に実現している。
また、動的残留フレームを共有バックボーンを介してDP3DFと共同で学習し、SR品質をさらに向上させる。
論文 参考訳(メタデータ) (2022-07-05T03:57:25Z) - NeRF-SR: High-Quality Neural Radiance Fields using Super-Sampling [82.99453001445478]
主に低分解能(LR)入力を用いた高分解能(HR)新規ビュー合成のソリューションであるNeRF-SRを提案する。
提案手法は,多層パーセプトロンを用いて各点密度と色を予測するニューラルレージアンス場(NeRF)上に構築されている。
論文 参考訳(メタデータ) (2021-12-03T07:33:47Z) - A Novel Unified Model for Multi-exposure Stereo Coding Based on Low Rank
Tucker-ALS and 3D-HEVC [0.6091702876917279]
テンソル低ランク近似に基づくマルチ露光ステレオ画像の効率的な符号化法を提案する。
マルチ露光融合によりデコーダのHDRステレオ出力が生成され、リアリズムと両眼3D深度が向上する。
3D-HEVCによる符号化は、低ランク近似表現におけるフレーム内、ビュー間、コンポーネント間冗長性を利用して提案されたスキーム効率を向上させる。
論文 参考訳(メタデータ) (2021-04-10T10:10:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。