論文の概要: GS-QA: Comprehensive Quality Assessment Benchmark for Gaussian Splatting View Synthesis
- arxiv url: http://arxiv.org/abs/2502.13196v1
- Date: Tue, 18 Feb 2025 17:46:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-20 13:59:10.670868
- Title: GS-QA: Comprehensive Quality Assessment Benchmark for Gaussian Splatting View Synthesis
- Title(参考訳): GS-QA:ガウススティングビュー合成のための総合的品質評価ベンチマーク
- Authors: Pedro Martin, António Rodrigues, João Ascenso, Maria Paula Queluz,
- Abstract要約: Gaussian Splatting (GS)はリアルタイム3DシーンレンダリングのためのNeural Radiance Fields (NeRF)に代わる有望な代替手段を提供する。
GSは、NeRFで使用されるニューラルネットワークアプローチと比較して、レンダリング時間の短縮とメモリ消費の削減を実現している。
本稿では,複数の静的GS法による合成映像の評価を目的とした主観的品質評価研究について述べる。
- 参考スコア(独自算出の注目度): 4.117347527143616
- License:
- Abstract: Gaussian Splatting (GS) offers a promising alternative to Neural Radiance Fields (NeRF) for real-time 3D scene rendering. Using a set of 3D Gaussians to represent complex geometry and appearance, GS achieves faster rendering times and reduced memory consumption compared to the neural network approach used in NeRF. However, quality assessment of GS-generated static content is not yet explored in-depth. This paper describes a subjective quality assessment study that aims to evaluate synthesized videos obtained with several static GS state-of-the-art methods. The methods were applied to diverse visual scenes, covering both 360-degree and forward-facing (FF) camera trajectories. Moreover, the performance of 18 objective quality metrics was analyzed using the scores resulting from the subjective study, providing insights into their strengths, limitations, and alignment with human perception. All videos and scores are made available providing a comprehensive database that can be used as benchmark on GS view synthesis and objective quality metrics.
- Abstract(参考訳): Gaussian Splatting (GS)はリアルタイム3DシーンレンダリングのためのNeural Radiance Fields (NeRF)に代わる有望な代替手段を提供する。
複雑な幾何学と外観を表現するために3Dガウスアンのセットを使用することで、GSはNeRFで使用されるニューラルネットワークアプローチと比較して、高速なレンダリング時間とメモリ消費の削減を実現している。
しかし,GS生成静的コンテンツの品質評価は未検討である。
本稿では,いくつかの静的GS法による合成映像の評価を目的とした主観的品質評価研究について述べる。
これらの手法は様々な視覚シーンに適用され、360度および前方(FF)カメラの軌跡をカバーしている。
さらに、主観的な研究から得られたスコアを用いて18の客観的品質指標のパフォーマンスを分析し、その強さ、限界、および人間の知覚との整合性について考察した。
すべてのビデオとスコアは、GSビューの合成と客観的品質メトリクスのベンチマークとして使用できる包括的なデータベースを提供する。
関連論文リスト
- Evaluating Human Perception of Novel View Synthesis: Subjective Quality Assessment of Gaussian Splatting and NeRF in Dynamic Scenes [6.157597876333952]
GS法とNeRF法の両方を含むNVS技術の品質評価のための2つの主観的な実験を行った。
この研究は、360度デグ、前面、一視点のフォトリアリスティック映像をカバーし、よりリッチで多くのリアルシーンを提供する。
動くオブジェクトを持つ動的シーンにおけるNVSメソッドの影響を調査するのは、これが初めてである。
論文 参考訳(メタデータ) (2025-01-13T10:01:27Z) - NeRF-NQA: No-Reference Quality Assessment for Scenes Generated by NeRF and Neural View Synthesis Methods [13.403739247879766]
NVS と NeRF の変種から合成した濃密に保存されたシーンに対する最初のノン参照品質評価手法である NeRF-NQA を提案する。
NeRF-NQAは、ビューワイズとポイントワイズの両方のアプローチを統合する共同品質評価戦略を採用している。
ビューワイズアプローチは、各合成ビューの空間的品質と全体ビュー間の一貫性を評価し、ポイントワイズアプローチはシーン表面の角質に焦点を当てる。
論文 参考訳(メタデータ) (2024-12-11T02:17:33Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - GS-Net: Generalizable Plug-and-Play 3D Gaussian Splatting Module [19.97023389064118]
粗いSfM点雲からガウス楕円体を密度化する3DGSモジュールであるGS-Netを提案する。
実験により、GS-Netを3DGSに適用すると、従来の視点では2.08dB、新しい視点では1.86dBのPSNR改善が得られることが示された。
論文 参考訳(メタデータ) (2024-09-17T16:03:19Z) - Dense Point Clouds Matter: Dust-GS for Scene Reconstruction from Sparse Viewpoints [9.069919085326]
3D Gaussian Splatting (3DGS) はシーン合成および新しいビュー合成タスクにおいて顕著な性能を示した。
本研究では,スパース視点条件下での3DGSの限界を克服する新しいフレームワークであるDust-GSを提案する。
論文 参考訳(メタデータ) (2024-09-13T07:59:15Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - A Survey on 3D Gaussian Splatting [51.96747208581275]
3D Gaussian splatting (GS) は、明示的なラディアンス場とコンピュータグラフィックスの領域において、トランスフォーメーション技術として登場した。
本稿では,3D GSの領域における最近の発展と重要な貢献について,初めて体系的に概説する。
前例のないレンダリング速度を実現することで、3D GSは、仮想現実からインタラクティブメディアなど、数多くのアプリケーションを開くことができる。
論文 参考訳(メタデータ) (2024-01-08T13:42:59Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [58.41056963451056]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z) - GS-IR: 3D Gaussian Splatting for Inverse Rendering [71.14234327414086]
3次元ガウス散乱(GS)に基づく新しい逆レンダリング手法GS-IRを提案する。
我々は、未知の照明条件下で撮影された多視点画像からシーン形状、表面物質、環境照明を推定するために、新しいビュー合成のための最高のパフォーマンス表現であるGSを拡張した。
フレキシブルかつ表現力のあるGS表現は、高速かつコンパクトな幾何再構成、フォトリアリスティックな新規ビュー合成、有効物理ベースレンダリングを実現する。
論文 参考訳(メタデータ) (2023-11-26T02:35:09Z) - CarPatch: A Synthetic Benchmark for Radiance Field Evaluation on Vehicle
Components [77.33782775860028]
車両の新たな総合ベンチマークであるCarPatchを紹介する。
内在カメラパラメータと外在カメラパラメータを付加した画像のセットに加えて、各ビューに対して対応する深度マップとセマンティックセグメンテーションマスクが生成されている。
グローバルとパートベースのメトリクスは、いくつかの最先端技術を評価し、比較し、より良い特徴付けるために定義され、使われてきた。
論文 参考訳(メタデータ) (2023-07-24T11:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。