論文の概要: Blind VQA on 360{\deg} Video via Progressively Learning from Pixels,
Frames and Video
- arxiv url: http://arxiv.org/abs/2111.09503v1
- Date: Thu, 18 Nov 2021 03:45:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-19 14:19:24.965980
- Title: Blind VQA on 360{\deg} Video via Progressively Learning from Pixels,
Frames and Video
- Title(参考訳): ピクセル、フレーム、ビデオから徐々に学習する360{\deg}ビデオのブラインドvqa
- Authors: Li Yang, Mai Xu, Shengxi Li, Yichen Guo, Zulin Wang
- Abstract要約: 360度ビデオにおけるブラインド視覚品質評価(BVQA)は,没入型マルチメディアシステムの最適化において重要な役割を担っている。
本稿では,球面映像品質に対する人間の知覚の進歩的パラダイムを考察する。
画素,フレーム,ビデオから段階的に学習することで,360度ビデオのための新しいBVQA手法(ProVQA)を提案する。
- 参考スコア(独自算出の注目度): 66.57045901742922
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Blind visual quality assessment (BVQA) on 360{\textdegree} video plays a key
role in optimizing immersive multimedia systems. When assessing the quality of
360{\textdegree} video, human tends to perceive its quality degradation from
the viewport-based spatial distortion of each spherical frame to motion
artifact across adjacent frames, ending with the video-level quality score,
i.e., a progressive quality assessment paradigm. However, the existing BVQA
approaches for 360{\textdegree} video neglect this paradigm. In this paper, we
take into account the progressive paradigm of human perception towards
spherical video quality, and thus propose a novel BVQA approach (namely ProVQA)
for 360{\textdegree} video via progressively learning from pixels, frames and
video. Corresponding to the progressive learning of pixels, frames and video,
three sub-nets are designed in our ProVQA approach, i.e., the spherical
perception aware quality prediction (SPAQ), motion perception aware quality
prediction (MPAQ) and multi-frame temporal non-local (MFTN) sub-nets. The SPAQ
sub-net first models the spatial quality degradation based on spherical
perception mechanism of human. Then, by exploiting motion cues across adjacent
frames, the MPAQ sub-net properly incorporates motion contextual information
for quality assessment on 360{\textdegree} video. Finally, the MFTN sub-net
aggregates multi-frame quality degradation to yield the final quality score,
via exploring long-term quality correlation from multiple frames. The
experiments validate that our approach significantly advances the
state-of-the-art BVQA performance on 360{\textdegree} video over two datasets,
the code of which has been public in
\url{https://github.com/yanglixiaoshen/ProVQA.}
- Abstract(参考訳): 360{\textdegree}ビデオのblind visual quality assessment (bvqa)は没入型マルチメディアシステムの最適化において重要な役割を果たす。
360{\textdegree}ビデオの品質を評価するとき、人間は、各球面フレームのビューポートに基づく空間的歪みから、隣接するフレーム間のモーションアーティファクトまでの品質劣化を知覚し、ビデオレベルの品質スコア、すなわち進歩的品質評価パラダイムで終わる傾向がある。
しかし、既存のBVQAによる360度ビデオのアプローチはこのパラダイムを無視している。
本稿では, 球面映像品質に対する人間の知覚の進歩的パラダイムを考慮し, 画素, フレーム, ビデオから段階的に学習する360度ビデオのための新しいBVQAアプローチ(別名ProVQA)を提案する。
ProVQAアプローチでは,画素,フレーム,ビデオの進行学習に対応して,球面認識品質予測(SPAQ),運動認識品質予測(MPAQ),マルチフレーム時間非局所(MFTN)サブネット(MFTN)という3つのサブネットが設計されている。
SPAQサブネットは、まず人間の球面知覚機構に基づいて空間的品質劣化をモデル化する。
そして、隣接フレーム間のモーションキューを活用して、mpaqサブネットは360{\textdegree}ビデオの品質評価のためにモーションコンテキスト情報を適切に組み込む。
最後に、MFTNサブネットは、複数のフレームから長期的な品質相関を探索することにより、マルチフレームの品質劣化を集約し、最終的な品質スコアを得る。
実験により,360{\textdegree}ビデオ上での最先端のBVQA性能は2つのデータセットで著しく向上し,そのコードは \url{https://github.com/yanglixiaoshen/ProVQAで公開されている。
}
関連論文リスト
- Benchmarking AIGC Video Quality Assessment: A Dataset and Unified Model [54.69882562863726]
主観的および客観的品質評価の観点からAIGC-VQA問題を体系的に検討する。
我々は,空間的品質,時間的品質,テキスト・ツー・ビデオアライメントの3次元から,AIGCビデオの知覚品質を評価する。
本稿では,AIGCビデオの品質を包括的かつ正確に評価するUnify Generated Video Quality Assessment (UGVQ)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-31T07:54:26Z) - CLIPVQA:Video Quality Assessment via CLIP [56.94085651315878]
VQA問題(CLIPVQA)に対する効率的なCLIPベースのトランスフォーマー手法を提案する。
提案したCLIPVQAは、新しい最先端のVQAパフォーマンスを実現し、既存のベンチマークVQAメソッドよりも最大で37%の汎用性を実現している。
論文 参考訳(メタデータ) (2024-07-06T02:32:28Z) - Capturing Co-existing Distortions in User-Generated Content for
No-reference Video Quality Assessment [9.883856205077022]
ビデオ品質アセスメント(VQA)は、ビデオの知覚品質を予測することを目的としている。
VQAはユーザ生成コンテンツ(UGC)ビデオで未解決の2つの過小評価課題に直面している。
品質関連スパース特徴をより効率的に抽出するためのtextitVisual Quality Transformer (VQT) を提案する。
論文 参考訳(メタデータ) (2023-07-31T16:29:29Z) - Towards Explainable In-the-Wild Video Quality Assessment: A Database and
a Language-Prompted Approach [52.07084862209754]
われわれは、13次元の質関連因子に関する4,543本のビデオについて200万以上の意見を集めている。
具体的には、各次元に対して正、負、中立の選択をラベル付けするよう被験者に求める。
これらの説明レベルの意見は、特定の品質要因と抽象的な主観的品質評価の関係を測ることができる。
論文 参考訳(メタデータ) (2023-05-22T05:20:23Z) - Zoom-VQA: Patches, Frames and Clips Integration for Video Quality
Assessment [14.728530703277283]
ビデオアセスメント(VQA)は、映像品質に対する人間の認識をシミュレートすることを目的としている。
ビデオはパッチレベル、フレームレベル、クリップレベルという3つのレベルに分けられます。
異なるレベルの機能を知覚するためのZoom-VQAアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-13T12:18:15Z) - Evaluating Point Cloud from Moving Camera Videos: A No-Reference Metric [58.309735075960745]
本稿では,ビデオ品質評価(VQA)手法を用いて,ポイントクラウド品質評価(PCQA)タスクの処理方法について検討する。
捉えたビデオは、いくつかの円形の経路を通して、点雲の周りでカメラを回転させて生成する。
トレーニング可能な2D-CNNモデルと事前学習された3D-CNNモデルを用いて、選択したキーフレームとビデオクリップから空間的・時間的品質認識特徴を抽出する。
論文 参考訳(メタデータ) (2022-08-30T08:59:41Z) - Exploring the Effectiveness of Video Perceptual Representation in Blind
Video Quality Assessment [55.65173181828863]
表現の図形的形態を記述することにより、時間的歪みを測定するための時間的知覚品質指標(TPQI)を提案する。
実験の結果,TPQIは主観的時間的品質を予測する効果的な方法であることがわかった。
論文 参考訳(メタデータ) (2022-07-08T07:30:51Z) - Patch-VQ: 'Patching Up' the Video Quality Problem [0.9786690381850356]
No-Reference (NR) Perceptual Video Quality Assessment (VQA) は、ソーシャルメディアおよびストリーミングメディアアプリケーションにおいて複雑で未解決で重要な問題である。
現在のNRモデルでは、実世界の"In-the-wild"ビデオデータ上での予測能力に制限がある。
私たちは、39,000の現実世界の歪曲したビデオと117,000の空間的局所化されたビデオパッチを含む、最も大きな(遠くまで)主観的なビデオ品質データセットを作成します。
論文 参考訳(メタデータ) (2020-11-27T03:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。