論文の概要: Video Quality Assessment for Online Processing: From Spatial to Temporal Sampling
- arxiv url: http://arxiv.org/abs/2501.07087v1
- Date: Mon, 13 Jan 2025 06:45:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:28:15.802104
- Title: Video Quality Assessment for Online Processing: From Spatial to Temporal Sampling
- Title(参考訳): オンライン・プロセッシングのための映像品質評価:空間からテンポラル・サンプリングへ
- Authors: Jiebin Yan, Lei Wu, Yuming Fang, Xuelin Liu, Xue Xia, Weide Liu,
- Abstract要約: 本稿では、少なくともVQAモデルにビデオを送る際には、いかに少ない情報を保持するべきかを検討する。
空間次元と時間次元の両方から映像情報を徹底的にサンプリングし、強く圧縮された映像を安定なVQAモデルに入力する。
6つの公開ビデオ品質データベース上で,共同空間および時間的サンプリングに関する総合的な実験を行った。
- 参考スコア(独自算出の注目度): 33.326611991696225
- License:
- Abstract: With the rapid development of multimedia processing and deep learning technologies, especially in the field of video understanding, video quality assessment (VQA) has achieved significant progress. Although researchers have moved from designing efficient video quality mapping models to various research directions, in-depth exploration of the effectiveness-efficiency trade-offs of spatio-temporal modeling in VQA models is still less sufficient. Considering the fact that videos have highly redundant information, this paper investigates this problem from the perspective of joint spatial and temporal sampling, aiming to seek the answer to how little information we should keep at least when feeding videos into the VQA models while with acceptable performance sacrifice. To this end, we drastically sample the video's information from both spatial and temporal dimensions, and the heavily squeezed video is then fed into a stable VQA model. Comprehensive experiments regarding joint spatial and temporal sampling are conducted on six public video quality databases, and the results demonstrate the acceptable performance of the VQA model when throwing away most of the video information. Furthermore, with the proposed joint spatial and temporal sampling strategy, we make an initial attempt to design an online VQA model, which is instantiated by as simple as possible a spatial feature extractor, a temporal feature fusion module, and a global quality regression module. Through quantitative and qualitative experiments, we verify the feasibility of online VQA model by simplifying itself and reducing input.
- Abstract(参考訳): マルチメディア処理とディープラーニング技術の急速な発展、特にビデオ理解の分野では、ビデオ品質評価(VQA)が大きな進歩を遂げている。
研究者は、効率的なビデオ品質マッピングモデルの設計から様々な研究方向へ移行してきたが、VQAモデルにおける時空間モデルの有効性と効率のトレードオフの詳細な調査は、まだ不十分である。
本稿では,ビデオに高い冗長性があるという事実を考慮し,映像をVQAモデルに投入する場合に,少なくとも少ない情報しか残さないことを目的とした,共同空間的・時間的サンプリングの観点から,この問題を考察する。
この目的のために,空間次元と時間次元の両方から映像情報を劇的にサンプリングし,厳密に圧縮された映像を安定なVQAモデルに入力する。
6つの公開ビデオ品質データベース上で,共同空間および時間的サンプリングに関する総合的な実験を行い,ビデオ情報の大半を捨てる際のVQAモデルの許容性能を実証した。
さらに,提案手法を用いて,空間的特徴抽出器,時間的特徴融合モジュール,グローバルな品質回帰モジュールを可能な限りシンプルにインスタンス化するオンラインVQAモデルの設計を試みた。
定量的および定性的な実験を通じて、オンラインVQAモデルの有効性を検証する。
関連論文リスト
- Video Quality Assessment: A Comprehensive Survey [55.734935003021576]
映像品質評価(VQA)は,映像の品質を知覚された品質の人間の判断と整合した方法で予測することを目的とした,重要な処理課題である。
本稿では,VQAアルゴリズムの開発における最近の進歩と,それらを実現するためのベンチマーク研究とデータベースについて述べる。
論文 参考訳(メタデータ) (2024-12-04T05:25:17Z) - LMM-VQA: Advancing Video Quality Assessment with Large Multimodal Models [53.64461404882853]
ビデオ品質評価(VQA)アルゴリズムは、ストリーミングビデオの品質を監視し最適化するために必要である。
本稿では,LMM-VQA(Large Multi-Modal Video Quality Assessment)モデルを提案する。
論文 参考訳(メタデータ) (2024-08-26T04:29:52Z) - Enhancing Blind Video Quality Assessment with Rich Quality-aware Features [79.18772373737724]
ソーシャルメディアビデオの視覚的品質評価(BVQA)モデルを改善するための,シンプルだが効果的な手法を提案する。
本稿では,BIQAモデルとBVQAモデルを用いて,事前学習したブラインド画像品質評価(BIQA)から,リッチな品質認識機能について検討する。
実験により,提案モデルが3つのソーシャルメディアVQAデータセット上で最高の性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-05-14T16:32:11Z) - Modular Blind Video Quality Assessment [33.657933680973194]
Blind Video Quality Assessment (BVQA) は、幅広いビデオベースのプラットフォームやサービスにおけるエンドユーザーの視聴体験を評価し改善する上で重要な役割を担っている。
本稿では,モジュール性向上のためのモジュール型BVQAモデルとトレーニング方法を提案する。
論文 参考訳(メタデータ) (2024-02-29T15:44:00Z) - Online Video Quality Enhancement with Spatial-Temporal Look-up Tables [42.07242907586958]
ビデオ会議やクラウドゲームなど、オンラインビデオベースのアプリケーションでは、レイテンシの低さが不可欠だ。
既存の品質向上手法は、速度の遅い推論速度と、将来のフレームに含まれる時間情報の要求によって制限される。
本稿では,オンラインビデオ品質向上(Online-VQE)問題に対処するために,STLVQEを提案する。
論文 参考訳(メタデータ) (2023-11-22T06:49:44Z) - Analysis of Video Quality Datasets via Design of Minimalistic Video Quality Models [71.06007696593704]
BVQA(Blind Quality Assessment)は、実世界のビデオ対応メディアアプリケーションにおけるエンドユーザの視聴体験の監視と改善に不可欠である。
実験分野として、BVQAモデルの改良は、主に数個の人間の評価されたVQAデータセットに基づいて測定されている。
最小主義的BVQAモデルを用いて,VQAデータセットの第一種計算解析を行う。
論文 参考訳(メタデータ) (2023-07-26T06:38:33Z) - Neighbourhood Representative Sampling for Efficient End-to-end Video
Quality Assessment [60.57703721744873]
リアルタイムビデオの高解像度化は、VQA(Deep Video Quality Assessment)の効率性と精度のジレンマを示す
そこで本研究では,空間時空間格子型ミニキューブサンプリング(St-GMS)を統一的に提案し,新しいタイプのフラグメントを抽出する。
フラグメントとFANetにより、提案された効率的なエンドツーエンドのFAST-VQAとFasterVQAは、既存のVQAベンチマークよりも大幅にパフォーマンスが向上した。
論文 参考訳(メタデータ) (2022-10-11T11:38:07Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - A Deep Learning based No-reference Quality Assessment Model for UGC
Videos [44.00578772367465]
従来のビデオ品質評価(VQA)研究では、画像認識モデルまたは画像品質評価(IQA)モデルを使用して、品質回帰のためのビデオのフレームレベルの特徴を抽出している。
ビデオフレームの生画素から高品質な空間特徴表現を学習するために,エンドツーエンドの空間特徴抽出ネットワークを訓練する,非常に単純で効果的なVQAモデルを提案する。
より優れた品質認識機能により、単純な多層認識層(MLP)ネットワークのみを用いてチャンクレベルの品質スコアに回帰し、時間平均プーリング戦略を採用してビデオを得る。
論文 参考訳(メタデータ) (2022-04-29T12:45:21Z) - RAPIQUE: Rapid and Accurate Video Quality Prediction of User Generated
Content [44.03188436272383]
RAPIQUE(Rapid and Accurate Video Quality Evaluator)をダブする、コンテンツのための効率的で効率的なビデオ品質モデルを紹介します。
RAPIQUEは、品質認識のシーン統計機能と意味認識の深い畳み込み機能の両方の利点を組み合わせて活用します。
最近の大規模なビデオ品質データベースに関する実験結果から、RAPIQUEはすべてのデータセットで最高のパフォーマンスを計算コストを大幅に削減できます。
論文 参考訳(メタデータ) (2021-01-26T17:23:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。