論文の概要: Explicit-NeRF-QA: A Quality Assessment Database for Explicit NeRF Model Compression
- arxiv url: http://arxiv.org/abs/2407.08165v2
- Date: Thu, 18 Jul 2024 15:52:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-19 20:02:37.987162
- Title: Explicit-NeRF-QA: A Quality Assessment Database for Explicit NeRF Model Compression
- Title(参考訳): Explicit-NeRF-QA: Explicit NeRFモデル圧縮のための品質評価データベース
- Authors: Yuke Xing, Qi Yang, Kaifa Yang, Yilin Xu, Zhu Li,
- Abstract要約: 我々は、NeRF圧縮研究の課題に対処するため、Explicit-NeRF-QAと呼ばれる新しいデータセットを構築した。
4つの典型的なNeRFモデルをトレーニングするために,22個の3Dオブジェクトを多様なジオメトリ,テクスチャ,材料複雑度で使用しています。
実験室環境における主観的な実験を行い、21人の視聴者から主観的なスコアを収集する。
- 参考スコア(独自算出の注目度): 10.469092315640696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Neural Radiance Fields (NeRF) have demonstrated significant advantages in representing and synthesizing 3D scenes. Explicit NeRF models facilitate the practical NeRF applications with faster rendering speed, and also attract considerable attention in NeRF compression due to its huge storage cost. To address the challenge of the NeRF compression study, in this paper, we construct a new dataset, called Explicit-NeRF-QA. We use 22 3D objects with diverse geometries, textures, and material complexities to train four typical explicit NeRF models across five parameter levels. Lossy compression is introduced during the model generation, pivoting the selection of key parameters such as hash table size for InstantNGP and voxel grid resolution for Plenoxels. By rendering NeRF samples to processed video sequences (PVS), a large scale subjective experiment with lab environment is conducted to collect subjective scores from 21 viewers. The diversity of content, accuracy of mean opinion scores (MOS), and characteristics of NeRF distortion are comprehensively presented, establishing the heterogeneity of the proposed dataset. The state-of-the-art objective metrics are tested in the new dataset. Best Person correlation, which is around 0.85, is collected from the full-reference objective metric. All tested no-reference metrics report very poor results with 0.4 to 0.6 correlations, demonstrating the need for further development of more robust no-reference metrics. The dataset, including NeRF samples, source 3D objects, multiview images for NeRF generation, PVSs, MOS, is made publicly available at the following location: https://github.com/LittlericeChloe/Explicit_NeRF_QA.
- Abstract(参考訳): 近年,Neural Radiance Fields (NeRF) は3Dシーンの表現と合成において大きな優位性を示している。
明示的なNeRFモデルは、より高速なレンダリング速度を持つ実用的なNeRFアプリケーションを容易にし、また巨大なストレージコストのためにNeRF圧縮に大きな注目を集める。
本稿では,NeRF圧縮研究の課題に対処するため,Explicit-NeRF-QAと呼ばれる新しいデータセットを構築した。
5つのパラメータレベルにまたがる4つの典型的なNeRFモデルをトレーニングするために、さまざまなジオメトリ、テクスチャ、材料複合体を持つ22の3Dオブジェクトを使用します。
モデル生成中にロッシー圧縮が導入され、InstantNGPのハッシュテーブルサイズやPlenoxelsのボクセルグリッド解像度などのキーパラメータの選択が中心となる。
処理されたビデオシーケンス(PVS)にNeRFサンプルをレンダリングすることにより、実験室環境における大規模な主観的実験を行い、21人の視聴者から主観的スコアを収集する。
提案したデータセットの多様性,平均世論スコア(MOS)の精度,NeRF歪みの特徴を包括的に提示し,その不均一性を確立した。
最先端の客観的メトリクスは、新しいデータセットでテストされる。
ベストパーソン相関(Best Person correlation)は、約0.85で、全参照客観的指標から収集される。
すべてのテストされたノン参照メトリクスは、0.4から0.6の相関で非常に低い結果を報告し、より堅牢なノン参照メトリクスのさらなる開発の必要性を示している。
NeRFサンプル、ソース3Dオブジェクト、NeRF生成用のマルチビューイメージ、PSV、MOSを含むデータセットは、以下の場所で公開されている。
関連論文リスト
- How Far Can We Compress Instant-NGP-Based NeRF? [45.88543996963832]
我々は、記憶に優しいNeRF表現を提供するために、Context-based NeRF Compression (CNC)フレームワークを導入する。
我々は、より優れたコンテキストモデリングのための強力な事前知識として、ハッシュ衝突と占有グリッドを利用する。
86.7%,82.3%のストレージサイズ削減を実現した。
論文 参考訳(メタデータ) (2024-06-06T14:16:03Z) - NeRF-DetS: Enhancing Multi-View 3D Object Detection with Sampling-adaptive Network of Continuous NeRF-based Representation [60.47114985993196]
NeRF-Detは、新しいビュー演算と3D知覚のタスクを統一する。
我々は,新しい3次元知覚ネットワーク構造であるNeRF-DetSを導入する。
NeRF-DetSはScanNetV2データセット上で競合するNeRF-Detより優れている。
論文 参考訳(メタデータ) (2024-04-22T06:59:03Z) - NeRFmentation: NeRF-based Augmentation for Monocular Depth Estimation [45.88995941857111]
トレーニングデータセットに、より多様な視方向を持つ合成データを導入するため、NeRFベースのデータ拡張パイプラインを提案する。
我々は、一般的な自動運転データセットであるKITTI上で、最先端の3つのMDEアーキテクチャと組み合わせて、我々の手法を適用した。
論文 参考訳(メタデータ) (2024-01-08T09:50:54Z) - SANeRF-HQ: Segment Anything for NeRF in High Quality [61.77762568224097]
本研究では,高品質な物体の高品質な3次元セグメンテーションを実現するために,SANeRF-HQ(Segment Anything for NeRF in High Quality)を提案する。
我々は,集約時のセグメンテーション境界の精度を高めるために密度場とRGB類似性を用いる。
論文 参考訳(メタデータ) (2023-12-03T23:09:38Z) - ScanNeRF: a Scalable Benchmark for Neural Radiance Fields [21.973450071630676]
ScanNeRFは、異なる条件下での現代のNeRFメソッドのパフォーマンスのベンチマークを目的とした、いくつかのトレイン/ヴァル/テスト分割を特徴とするデータセットである。
我々は、その強度と弱点を明らかにするために、最先端の3つのNeRF変異体を評価した。
データセットは、より優れたNeRFの開発を促進するオンラインベンチマークとともに、私たちのプロジェクトページで利用可能です。
論文 参考訳(メタデータ) (2022-11-24T19:00:02Z) - NeRF-RPN: A general framework for object detection in NeRFs [54.54613914831599]
NeRF-RPNは、シーン内のオブジェクトのすべてのバウンディングボックスを検出することを目的としている。
NeRF-RPNは一般的なフレームワークであり、クラスラベルなしでオブジェクトを検出できる。
論文 参考訳(メタデータ) (2022-11-21T17:02:01Z) - Aug-NeRF: Training Stronger Neural Radiance Fields with Triple-Level
Physically-Grounded Augmentations [111.08941206369508]
我々は,NeRFトレーニングの正規化にロバストなデータ拡張のパワーを初めてもたらすAugmented NeRF(Aug-NeRF)を提案する。
提案手法では,最悪の場合の摂動を3段階のNeRFパイプラインにシームレスにブレンドする。
Aug-NeRFは、新しいビュー合成と基礎となる幾何再構成の両方において、NeRF性能を効果的に向上させる。
論文 参考訳(メタデータ) (2022-07-04T02:27:07Z) - NeRF-SR: High-Quality Neural Radiance Fields using Super-Sampling [82.99453001445478]
主に低分解能(LR)入力を用いた高分解能(HR)新規ビュー合成のソリューションであるNeRF-SRを提案する。
提案手法は,多層パーセプトロンを用いて各点密度と色を予測するニューラルレージアンス場(NeRF)上に構築されている。
論文 参考訳(メタデータ) (2021-12-03T07:33:47Z) - iNeRF: Inverting Neural Radiance Fields for Pose Estimation [68.91325516370013]
Neural RadianceField(NeRF)を「反転」してメッシュフリーポーズ推定を行うフレームワークiNeRFを紹介します。
NeRFはビュー合成のタスクに極めて有効であることが示されている。
論文 参考訳(メタデータ) (2020-12-10T18:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。