論文の概要: No-Reference Rendered Video Quality Assessment: Dataset and Metrics
- arxiv url: http://arxiv.org/abs/2510.13349v1
- Date: Wed, 15 Oct 2025 09:36:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.600087
- Title: No-Reference Rendered Video Quality Assessment: Dataset and Metrics
- Title(参考訳): 非参照レンダリングビデオ品質評価:データセットとメトリクス
- Authors: Sipeng Yang, Jiayu Ji, Qingchuan Zhu, Zhiyao Yang, Xiaogang Jin,
- Abstract要約: 主観的品質アノテーションを用いた大規模なレンダリング指向ビデオデータセットを提案する。
NR-VQA測定値の校正を行い,画像品質と時間安定性の両面から映像品質の評価を行った。
- 参考スコア(独自算出の注目度): 13.445406215772449
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quality assessment of videos is crucial for many computer graphics applications, including video games, virtual reality, and augmented reality, where visual performance has a significant impact on user experience. When test videos cannot be perfectly aligned with references or when references are unavailable, the significance of no-reference video quality assessment (NR-VQA) methods is undeniable. However, existing NR-VQA datasets and metrics are primarily focused on camera-captured videos; applying them directly to rendered videos would result in biased predictions, as rendered videos are more prone to temporal artifacts. To address this, we present a large rendering-oriented video dataset with subjective quality annotations, as well as a designed NR-VQA metric specific to rendered videos. The proposed dataset includes a wide range of 3D scenes and rendering settings, with quality scores annotated for various display types to better reflect real-world application scenarios. Building on this dataset, we calibrate our NR-VQA metric to assess rendered video quality by looking at both image quality and temporal stability. We compare our metric to existing NR-VQA metrics, demonstrating its superior performance on rendered videos. Finally, we demonstrate that our metric can be used to benchmark supersampling methods and assess frame generation strategies in real-time rendering.
- Abstract(参考訳): ビデオの品質評価は、ビデオゲーム、仮想現実、拡張現実など、多くのコンピュータグラフィックスアプリケーションにとって不可欠である。
テストビデオが参照と完全に一致できない場合や参照が利用できない場合、非参照ビデオ品質評価(NR-VQA)手法の重要性は否定できない。
しかしながら、既存のNR-VQAデータセットとメトリクスは、主にカメラがキャプチャしたビデオに焦点を当てている。
これを解決するために、主観的品質アノテーションを備えた大規模なレンダリング指向ビデオデータセットと、レンダリングビデオに特化したNR-VQAメトリックを設計する。
提案したデータセットには、さまざまな3Dシーンとレンダリング設定が含まれており、実際のアプリケーションシナリオをよりよく反映するために、さまざまな表示タイプにアノテートされた品質スコアがある。
このデータセットに基づいて、NR-VQAメトリックを校正し、画像品質と時間安定性を両立させることにより、レンダリングされた映像品質を評価する。
我々は、既存のNR-VQAメトリクスと比較し、レンダリングビデオにおける優れたパフォーマンスを示す。
最後に、我々の測定値を用いてスーパーサンプリング手法のベンチマークを行い、リアルタイムレンダリングにおけるフレーム生成戦略を評価することを実証する。
関連論文リスト
- Advancing Reference-free Evaluation of Video Captions with Factual Analysis [11.012178413572066]
本稿では,レファレンスフリーかつ事実的根拠のない新しいキャプション品質評価器であるVC-Inspectorを紹介する。
提案手法は,VATEX-Evalデータセット上での人間の判断に優れた整合性を示し,既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2025-09-20T05:04:41Z) - CGVQM+D: Computer Graphics Video Quality Metric and Dataset [4.5660125761127235]
本稿では,高度なレンダリング技術によって導入された歪みに着目した映像品質データセットを提案する。
評価の結果,既存の全参照品質指標はこれらの歪みに準最適に作用することがわかった。
本稿では,CGVQMを提案する。
論文 参考訳(メタデータ) (2025-06-13T07:59:55Z) - VCapsBench: A Large-scale Fine-grained Benchmark for Video Caption Quality Evaluation [23.701884816475403]
ビデオキャプションは、テキストからビデオへの生成タスクにおいて重要な役割を果たす。
既存のベンチマークでは、きめ細かい評価が不十分である。
細粒度ビデオキャプション評価ベンチマーク(VCapsBench)を紹介する。
論文 参考訳(メタデータ) (2025-05-29T14:34:25Z) - Benchmarking Multi-dimensional AIGC Video Quality Assessment: A Dataset and Unified Model [56.03592388332793]
主観的・客観的な品質評価の観点からAIGC-VQA問題を考察する。
主観的観点からは,2,808本のAIGCビデオからなる大規模映像品質評価(LGVQ)データセットを構築した。
我々は,AIGCビデオの知覚的品質を,空間的品質,時間的品質,テキスト・ビデオアライメントの3つの重要な次元から評価した。
本稿では,AIGCビデオの多次元品質を正確に評価するUnify Generated Video Quality Assessment (UGVQ)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-31T07:54:26Z) - CLIPVQA:Video Quality Assessment via CLIP [56.94085651315878]
VQA問題(CLIPVQA)に対する効率的なCLIPベースのトランスフォーマー手法を提案する。
提案したCLIPVQAは、新しい最先端のVQAパフォーマンスを実現し、既存のベンチマークVQAメソッドよりも最大で37%の汎用性を実現している。
論文 参考訳(メタデータ) (2024-07-06T02:32:28Z) - STREAM: Spatio-TempoRal Evaluation and Analysis Metric for Video Generative Models [6.855409699832414]
ビデオ生成モデルは、短いビデオクリップを生成するのに苦労する。
現在のビデオ評価メトリクスは、埋め込みをビデオ埋め込みネットワークに切り替えることによって、画像メトリクスの単純な適応である。
本稿では,空間的側面と時間的側面を独立に評価するために一意に設計された新しいビデオ評価指標STREAMを提案する。
論文 参考訳(メタデータ) (2024-01-30T08:18:20Z) - Towards A Better Metric for Text-to-Video Generation [102.16250512265995]
生成モデルは高品質のテキスト、画像、ビデオの合成において顕著な能力を示した。
新たな評価パイプラインであるText-to-Video Score(T2VScore)を導入する。
本尺度は,(1)テキスト記述における映像の忠実度を精査するテキスト・ビデオ・アライメント,(2)ビデオ品質,(2)ビデオ全体の製作口径を専門家の混合で評価するビデオ品質の2つの重要な基準を統合した。
論文 参考訳(メタデータ) (2024-01-15T15:42:39Z) - Video compression dataset and benchmark of learning-based video-quality
metrics [55.41644538483948]
本稿では,ビデオ圧縮の評価を行うビデオ品質指標の新しいベンチマークを提案する。
これは、異なる標準でエンコードされた約2,500のストリームからなる、新しいデータセットに基づいている。
クラウドソーシングによるペアワイズ比較により,主観的スコアを収集した。
論文 参考訳(メタデータ) (2022-11-22T09:22:28Z) - Coherent Loss: A Generic Framework for Stable Video Segmentation [103.78087255807482]
ビデオセグメンテーションの結果の視覚的品質を,ジッタリングアーティファクトがいかに劣化させるかを検討する。
本稿では,ニューラルネットワークの性能向上を目的とした汎用フレームワークを備えたコヒーレントロスを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:48:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。