論文の概要: NovisVQ: A Streaming Convolutional Neural Network for No-Reference Opinion-Unaware Frame Quality Assessment
- arxiv url: http://arxiv.org/abs/2511.04628v1
- Date: Thu, 06 Nov 2025 18:23:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.555264
- Title: NovisVQ: A Streaming Convolutional Neural Network for No-Reference Opinion-Unaware Frame Quality Assessment
- Title(参考訳): NovisVQ: 参照不要なフレーム品質評価のためのストリーミング畳み込みニューラルネットワーク
- Authors: Kylie Cancilla, Alexander Moore, Amar Saini, Carmen Carrano,
- Abstract要約: コンピュータビジョンタスクにはビデオ品質評価(VQA)が不可欠だが、既存のアプローチには大きな制約がある。
我々は、参照も意見も意識しないスケーラブルでストリーミングベースのVQAモデルを提案する。
- 参考スコア(独自算出の注目度): 39.76658525158528
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video quality assessment (VQA) is vital for computer vision tasks, but existing approaches face major limitations: full-reference (FR) metrics require clean reference videos, and most no-reference (NR) models depend on training on costly human opinion labels. Moreover, most opinion-unaware NR methods are image-based, ignoring temporal context critical for video object detection. In this work, we present a scalable, streaming-based VQA model that is both no-reference and opinion-unaware. Our model leverages synthetic degradations of the DAVIS dataset, training a temporal-aware convolutional architecture to predict FR metrics (LPIPS , PSNR, SSIM) directly from degraded video, without references at inference. We show that our streaming approach outperforms our own image-based baseline by generalizing across diverse degradations, underscoring the value of temporal modeling for scalable VQA in real-world vision systems. Additionally, we demonstrate that our model achieves higher correlation with full-reference metrics compared to BRISQUE, a widely-used opinion-aware image quality assessment baseline, validating the effectiveness of our temporal, opinion-unaware approach.
- Abstract(参考訳): ビデオ品質アセスメント(VQA)はコンピュータビジョンタスクには不可欠であるが、既存のアプローチでは大きな制限に直面している。
さらに、ほとんどの意見によらないNR法は画像ベースであり、ビデオオブジェクト検出に不可欠な時間的文脈を無視している。
本研究では,非参照と意見認識の両方が可能なスケーラブルなストリーミングベースのVQAモデルを提案する。
我々のモデルは,DAVISデータセットの合成劣化を利用して,時間的認識による畳み込みアーキテクチャをトレーニングし,劣化したビデオから直接FRメトリクス(LPIPS,PSNR,SSIM)を予測する。
実世界の視覚システムにおけるスケーラブルなVQAに対する時間的モデリングの価値を強調し、さまざまな劣化を一般化することで、ストリーミングアプローチが私たちのイメージベースラインより優れていることを示す。
さらに,提案手法は,評価基準であるBRISQUEよりも高相関性を示し,その妥当性を検証した。
関連論文リスト
- Towards Generalized Video Quality Assessment: A Weak-to-Strong Learning Paradigm [76.63001244080313]
映像品質評価(VQA)は、人間の視覚的知覚に合わせて映像の知覚的品質を予測することを目的としている。
支配的なVQAパラダイムは、人間のラベル付きデータセットによる教師付きトレーニングに依存している。
我々は、大規模な人ラベルデータセットに頼らずにVQAを進めるための新しいパラダイムとして、弱い対強学習(W2S)を探求する。
論文 参考訳(メタデータ) (2025-05-06T15:29:32Z) - DVLTA-VQA: Decoupled Vision-Language Modeling with Text-Guided Adaptation for Blind Video Quality Assessment [17.85550556489256]
本稿では,Blind Video Quality Assessment (DVLTA-VQA) のためのテキストガイド適応を用いたデカップリング型視覚言語モデルを提案する。
ビデオベーステンポラルCLIPモジュールは、時間的ダイナミクスを明示的にモデル化し、背側ストリームと整合して運動知覚を高める。
時間的コンテキストモジュールは、フレーム間の依存関係を洗練し、モーションモデリングをさらに改善するために開発されている。
最後に、空間情報と時間情報のより効果的な統合を可能にするために、テキスト誘導型適応融合戦略を提案する。
論文 参考訳(メタデータ) (2025-04-16T03:20:28Z) - Exploring Opinion-unaware Video Quality Assessment with Semantic
Affinity Criterion [52.07084862209754]
コントラッシブ言語画像事前学習モデルにおけるテキストプロンプトを用いた意見認識型VQAに対する明示的セマンティック親和性指標を提案する。
また、ガウス正規化とシグモイド再スケーリング戦略を通じて、異なる伝統的な低レベル自然度指数を集約する。
The proposed Blind Unified Opinion-Unaware Video Quality Index via Semantic and Technical Metric Aggregation (BUONA-VISTA)は、既存の意見不明のVQA手法を少なくとも20%改善した。
論文 参考訳(メタデータ) (2023-02-26T08:46:07Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - A Brief Survey on Adaptive Video Streaming Quality Assessment [30.253712568568876]
適応型ビデオストリーミングにおける品質・オブ・エクスペリエンス(QoE)の評価は,高度ネットワーク管理システムにおいて重要な役割を担っている。
我々は、適応的なビデオストリーミングのための機械学習技術を用いて、客観的QoEアセスメントモデルの様々なバリエーションを分析し、比較する。
既存のビデオストリーミングQoEアセスメントモデルにはまだ性能が限られており,実用的な通信システムに適用することは困難である。
論文 参考訳(メタデータ) (2022-02-25T21:38:14Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。