論文の概要: Super-NeRF: View-consistent Detail Generation for NeRF super-resolution
- arxiv url: http://arxiv.org/abs/2304.13518v1
- Date: Wed, 26 Apr 2023 12:54:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 14:21:09.239669
- Title: Super-NeRF: View-consistent Detail Generation for NeRF super-resolution
- Title(参考訳): スーパーNeRF:超高分解能のためのビューコンセントディテール生成
- Authors: Yuqi Han and Tao Yu and Xiaohang Yu and Yuwang Wang and Qionghai Dai
- Abstract要約: 我々は,低分解能入力のみから高分解能NeRFを生成するために,Super-NeRFと呼ばれるNeRF超解像法を提案する。
Super-NeRFは高解像度ディテール生成とクロスビュー整合性において最先端のNeRF超解像性能を実現する。
- 参考スコア(独自算出の注目度): 39.58800919345451
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The neural radiance field (NeRF) achieved remarkable success in modeling 3D
scenes and synthesizing high-fidelity novel views. However, existing NeRF-based
methods focus more on the make full use of the image resolution to generate
novel views, but less considering the generation of details under the limited
input resolution. In analogy to the extensive usage of image super-resolution,
NeRF super-resolution is an effective way to generate the high-resolution
implicit representation of 3D scenes and holds great potential applications. Up
to now, such an important topic is still under-explored. In this paper, we
propose a NeRF super-resolution method, named Super-NeRF, to generate
high-resolution NeRF from only low-resolution inputs. Given multi-view
low-resolution images, Super-NeRF constructs a consistency-controlling
super-resolution module to generate view-consistent high-resolution details for
NeRF. Specifically, an optimizable latent code is introduced for each
low-resolution input image to control the 2D super-resolution images to
converge to the view-consistent output. The latent codes of each low-resolution
image are optimized synergistically with the target Super-NeRF representation
to fully utilize the view consistency constraint inherent in NeRF construction.
We verify the effectiveness of Super-NeRF on synthetic, real-world, and
AI-generated NeRF datasets. Super-NeRF achieves state-of-the-art NeRF
super-resolution performance on high-resolution detail generation and
cross-view consistency.
- Abstract(参考訳): ニューラルレイディアンス場(NeRF)は3Dシーンのモデリングと高忠実度ノベルビューの合成において顕著な成功を収めた。
しかし、既存のnerfベースの手法では、新しいビューを生成するために画像解像度を最大限に活用することに注力しているが、限られた入力解像度で詳細を生成することについては考慮していない。
画像超解像の広範な利用と類似して、NeRF超解像は高解像度の3Dシーンの暗黙的表現を生成する効果的な方法であり、大きな潜在的な応用をもたらす。
今のところ、このような重要なトピックはまだ検討されていない。
本稿では,低分解能入力のみから高分解能NeRFを生成するために,Super-NeRFと呼ばれるNeRF超解像法を提案する。
マルチビュー低解像度画像が与えられると、Super-NeRFは一貫性制御のスーパー解像度モジュールを構築し、NeRFのビュー一貫性の高い高解像度の詳細を生成する。
具体的には、低解像度の入力画像毎に最適化可能な潜時符号を導入し、2次元の超解像を制御し、ビュー一貫性出力に収束させる。
各低解像度画像の潜在符号は、ターゲットのSuper-NeRF表現と相乗的に最適化され、NeRF構成に固有のビュー一貫性制約を完全に活用する。
我々は,合成,実世界,AI生成のNeRFデータセットに対するSuper-NeRFの有効性を検証する。
Super-NeRFは高解像度ディテール生成とクロスビュー整合性において最先端のNeRF超解像性能を実現する。
関連論文リスト
- SuperNeRF-GAN: A Universal 3D-Consistent Super-Resolution Framework for Efficient and Enhanced 3D-Aware Image Synthesis [59.73403876485574]
本稿では,3次元連続超解像のための汎用フレームワークであるSuperNeRF-GANを提案する。
SuperNeRF-GANの重要な特徴は、NeRFベースの3D認識画像合成手法とのシームレスな統合である。
実験により, 提案手法の効率性, 3次元整合性, 品質が示された。
論文 参考訳(メタデータ) (2025-01-12T10:31:33Z) - ASSR-NeRF: Arbitrary-Scale Super-Resolution on Voxel Grid for High-Quality Radiance Fields Reconstruction [27.21399221644529]
暗黙的あるいは明示的な表現を持つ放射場を構築することにより、NeRFに基づく3Dシーンの再構成を行う。
超高解像度ノベルビュー合成のための新しいフレームワークであるArbitrary-Scale Super-Resolution NeRF (ASSR-NeRF)を提案する。
論文 参考訳(メタデータ) (2024-06-28T17:22:33Z) - DiSR-NeRF: Diffusion-Guided View-Consistent Super-Resolution NeRF [50.458896463542494]
DiSR-NeRFは、ビュー一貫性を持つ超解像(SR)NeRFのための拡散誘導フレームワークである。
我々は,NeRFの固有多視点整合性により不整合問題を緩和するイテレーティブ3Dシンクロナイゼーション(I3DS)を提案する。
論文 参考訳(メタデータ) (2024-04-01T03:06:23Z) - From NeRFLiX to NeRFLiX++: A General NeRF-Agnostic Restorer Paradigm [57.73868344064043]
我々は、劣化駆動の視点間ミキサーを学習する一般的なNeRF-Agnostic restorerパラダイムであるNeRFLiXを提案する。
また、より強力な2段階のNeRF分解シミュレータとより高速なビューポイントミキサーを備えたNeRFLiX++を提案する。
NeRFLiX++は、ノイズの多い低解像度のNeRFレンダリングビューからフォトリアリスティックな超高解像度出力を復元することができる。
論文 参考訳(メタデータ) (2023-06-10T09:19:19Z) - NerfDiff: Single-image View Synthesis with NeRF-guided Distillation from
3D-aware Diffusion [107.67277084886929]
単一の画像からの新しいビュー合成には、オブジェクトやシーンの隠蔽領域を推論すると同時に、入力とのセマンティックおよび物理的整合性を同時に維持する必要がある。
そこで我々は,NerfDiffを提案する。NerfDiffは3D対応条件拡散モデル(CDM)の知識を,テスト時に仮想ビューの集合を合成・精製することで,NeRFに抽出することでこの問題に対処する。
さらに,CDMサンプルから3次元一貫した仮想ビューを同時に生成し,改良された仮想ビューに基づいてNeRFを微調整する新しいNeRF誘導蒸留アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-20T17:12:00Z) - NeRF-SR: High-Quality Neural Radiance Fields using Super-Sampling [82.99453001445478]
主に低分解能(LR)入力を用いた高分解能(HR)新規ビュー合成のソリューションであるNeRF-SRを提案する。
提案手法は,多層パーセプトロンを用いて各点密度と色を予測するニューラルレージアンス場(NeRF)上に構築されている。
論文 参考訳(メタデータ) (2021-12-03T07:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。