論文の概要: Saliency-Aware Spatio-Temporal Artifact Detection for Compressed Video
Quality Assessment
- arxiv url: http://arxiv.org/abs/2301.01069v1
- Date: Tue, 3 Jan 2023 12:48:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 15:24:20.062673
- Title: Saliency-Aware Spatio-Temporal Artifact Detection for Compressed Video
Quality Assessment
- Title(参考訳): 圧縮映像品質評価のための時空間アーチファクト検出
- Authors: Liqun Lin, Yang Zheng, Weiling Chen, Chengdong Lan, Tiesong Zhao
- Abstract要約: 圧縮されたビデオは、しばしば知覚可能なテンポラルアーティファクト(PEAs)として知られる視覚的に厄介なアーティファクトを示す。
本稿では,4つの空間的PEA(ブラーリング,ブロッキング,出血,リング)と2つの時間的PEA(フリックリング,フローティング)が映像品質に与える影響について検討する。
6種類のPEAに基づいて,SSTAM(Saliency-Aware Spatio-Temporal Artifacts Measurement)と呼ばれる品質指標を提案する。
- 参考スコア(独自算出の注目度): 16.49357671290058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compressed videos often exhibit visually annoying artifacts, known as
Perceivable Encoding Artifacts (PEAs), which dramatically degrade video visual
quality. Subjective and objective measures capable of identifying and
quantifying various types of PEAs are critical in improving visual quality. In
this paper, we investigate the influence of four spatial PEAs (i.e. blurring,
blocking, bleeding, and ringing) and two temporal PEAs (i.e. flickering and
floating) on video quality. For spatial artifacts, we propose a visual saliency
model with a low computational cost and higher consistency with human visual
perception. In terms of temporal artifacts, self-attention based TimeSFormer is
improved to detect temporal artifacts. Based on the six types of PEAs, a
quality metric called Saliency-Aware Spatio-Temporal Artifacts Measurement
(SSTAM) is proposed. Experimental results demonstrate that the proposed method
outperforms state-of-the-art metrics. We believe that SSTAM will be beneficial
for optimizing video coding techniques.
- Abstract(参考訳): 圧縮されたビデオは、Perceivable Encoding Artifacts (PEA)として知られる視覚的に厄介なアーティファクトを表示する。
様々な種類のPEAを識別・定量化できる主観的・客観的尺度は、視覚的品質向上に不可欠である。
本稿では,4つの空間的PEA(ブラーリング,ブロッキング,出血,リング)と2つの時間的PEA(フリックリング,フローティング)が映像品質に与える影響について検討する。
空間的アーティファクトに対しては,計算コストが低く,人間の視覚知覚との一貫性が高まる視覚塩分モデルを提案する。
時間的アーティファクトの観点では、自己アテンションベースのTimeSFormerが改善され、時間的アーティファクトを検出する。
6種類のPEAに基づいて,SSTAM(Saliency-Aware Spatio-Temporal Artifacts Measurement)と呼ばれる品質指標を提案する。
実験の結果,提案手法は最先端の指標よりも優れていた。
我々は,SSTAMがビデオ符号化技術の最適化に有用であると信じている。
関連論文リスト
- Fréchet Video Motion Distance: A Metric for Evaluating Motion Consistency in Videos [13.368981834953981]
映像生成における動きの整合性を評価することを目的としたFr'echet Video Motion Distanceメトリックを提案する。
具体的には、キーポイント追跡に基づく明示的な動作特徴を設計し、Fr'echet距離を用いてこれらの特徴間の類似度を測定する。
我々は大規模な人間の研究を行い、我々の測定値が時間的ノイズを効果的に検出し、既存の測定値よりも生成された映像品質の人間の知覚とよく一致していることを示す。
論文 参考訳(メタデータ) (2024-07-23T02:10:50Z) - MVAD: A Multiple Visual Artifact Detector for Video Streaming [7.782835693566871]
ヴィジュアルアーティファクトは、しばしば、コンテンツ制作と配信の間、一般的な条件のために、ストリーミングされたビデオコンテンツに導入される。
既存の検出方法は、単一の種類のアーティファクトに焦点を当て、客観的な品質指標をしきい値にすることで、アーティファクトの存在を判断することが多い。
本稿では,ビデオストリーミングのためのマルチビジュアルアーティファクト検出器 MVAD を提案する。
論文 参考訳(メタデータ) (2024-05-31T21:56:04Z) - STREAM: Spatio-TempoRal Evaluation and Analysis Metric for Video Generative Models [6.855409699832414]
ビデオ生成モデルは、短いビデオクリップを生成するのに苦労する。
現在のビデオ評価メトリクスは、埋め込みをビデオ埋め込みネットワークに切り替えることによって、画像メトリクスの単純な適応である。
本稿では,空間的側面と時間的側面を独立に評価するために一意に設計された新しいビデオ評価指標STREAMを提案する。
論文 参考訳(メタデータ) (2024-01-30T08:18:20Z) - ColorVideoVDP: A visual difference predictor for image, video and display distortions [51.29162719944865]
メトリックは、色調コントラスト感度とチャンネル間のコントラストマスキングという新しい心理物理学モデルに基づいて構築されている。
ディスプレイの観察条件、幾何学的、および測光的特性を考慮に入れている。
一般的なビデオストリーミングの歪みと、AR/VRディスプレイに関連する8つの新しい歪みを予測できるように訓練された。
論文 参考訳(メタデータ) (2024-01-21T13:16:33Z) - Geometry-Aware Video Quality Assessment for Dynamic Digital Human [56.17852258306602]
DDH-QAチャレンジのための新しい非参照(NR)幾何対応ビデオ品質評価手法を提案する。
提案手法はDDH-QAデータベース上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-24T16:34:03Z) - Exploring the Effectiveness of Video Perceptual Representation in Blind
Video Quality Assessment [55.65173181828863]
表現の図形的形態を記述することにより、時間的歪みを測定するための時間的知覚品質指標(TPQI)を提案する。
実験の結果,TPQIは主観的時間的品質を予測する効果的な方法であることがわかった。
論文 参考訳(メタデータ) (2022-07-08T07:30:51Z) - DisCoVQA: Temporal Distortion-Content Transformers for Video Quality
Assessment [56.42140467085586]
いくつかの時間的変動は時間的歪みを引き起こし、余分な品質劣化を引き起こす。
人間の視覚システムは、しばしば異なる内容のフレームに対して異なる注意を向ける。
本稿では, この2つの問題に対処するための, トランスフォーマーを用いたVQA手法を提案する。
論文 参考訳(メタデータ) (2022-06-20T15:31:27Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Coherent Loss: A Generic Framework for Stable Video Segmentation [103.78087255807482]
ビデオセグメンテーションの結果の視覚的品質を,ジッタリングアーティファクトがいかに劣化させるかを検討する。
本稿では,ニューラルネットワークの性能向上を目的とした汎用フレームワークを備えたコヒーレントロスを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:48:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。