論文の概要: Blindly Assess Quality of In-the-Wild Videos via Quality-aware
Pre-training and Motion Perception
- arxiv url: http://arxiv.org/abs/2108.08505v1
- Date: Thu, 19 Aug 2021 05:29:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-21 01:34:15.838898
- Title: Blindly Assess Quality of In-the-Wild Videos via Quality-aware
Pre-training and Motion Perception
- Title(参考訳): 高品質な事前学習とモーション・パーセプションによるWild動画の品質評価
- Authors: Bowen Li and Weixia Zhang and Meng Tian and Guangtao Zhai and Xianpei
Wang
- Abstract要約: 本稿では,画像品質評価(IQA)データベースからの知識の伝達と,リッチな動きパターンを用いた大規模行動認識を提案する。
対象のVQAデータベース上で、混合リストワイドランキング損失関数を用いて、提案したモデルをトレーニングする。
- 参考スコア(独自算出の注目度): 32.87570883484805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Perceptual quality assessment of the videos acquired in the wilds is of vital
importance for quality assurance of video services. The inaccessibility of
reference videos with pristine quality and the complexity of authentic
distortions pose great challenges for this kind of blind video quality
assessment (BVQA) task. Although model-based transfer learning is an effective
and efficient paradigm for the BVQA task, it remains to be a challenge to
explore what and how to bridge the domain shifts for better video
representation. In this work, we propose to transfer knowledge from image
quality assessment (IQA) databases with authentic distortions and large-scale
action recognition with rich motion patterns. We rely on both groups of data to
learn the feature extractor. We train the proposed model on the target VQA
databases using a mixed list-wise ranking loss function. Extensive experiments
on six databases demonstrate that our method performs very competitively under
both individual database and mixed database training settings. We also verify
the rationality of each component of the proposed method and explore a simple
manner for further improvement.
- Abstract(参考訳): 野生で取得したビデオの知覚的品質評価は、ビデオサービスの品質保証にとって極めて重要である。
基準映像の信頼性の欠如と、本物の歪みの複雑さは、この種の盲目映像品質評価(bvqa)タスクにとって大きな課題となる。
モデルベーストランスファー学習はBVQAタスクの効率的かつ効率的なパラダイムであるが、より優れたビデオ表現のためにドメインシフトをどのようにブリッジするかを探求することは依然として課題である。
本研究では,画像品質評価(IQA)データベースからの知識の伝達と,リッチな動きパターンを用いた大規模行動認識を提案する。
特徴抽出器を学ぶために、両方のデータグループに依存しています。
対象のVQAデータベース上で、混合リストワイドランキング損失関数を用いて提案モデルを訓練する。
6つのデータベースに対する大規模な実験により、個々のデータベースと混合データベースのトレーニング設定の両方で、我々の手法が非常に競争力があることを示した。
また,提案手法の各成分の合理性を検証し,さらなる改善に向けた簡単な方法を探る。
関連論文リスト
- KVQ: Kwai Video Quality Assessment for Short-form Videos [24.5291786508361]
我々は,600本のユーザアップロードショートビデオと3600本のプロセッシングビデオからなる,最初の大規模KVQ(Kleidoscope short Video database for Quality Assessment)を構築した。
そこで我々は,KSVQEというビデオ品質評価装置を提案する。これにより,品質決定セマンティクスを大規模視覚言語モデルの内容理解とともに識別することができる。
論文 参考訳(メタデータ) (2024-02-11T14:37:54Z) - Analysis of Video Quality Datasets via Design of Minimalistic Video
Quality Models [55.694387785978996]
BVQA(Blind Quality Assessment)は、実世界のビデオ対応メディアアプリケーションにおけるエンドユーザの視聴体験の監視と改善に不可欠である。
実験分野として、BVQAモデルの改良は、主に数個の人間の評価されたVQAデータセットに基づいて測定されている。
最小主義的BVQAモデルを用いて,VQAデータセットの第一種計算解析を行う。
論文 参考訳(メタデータ) (2023-07-26T06:38:33Z) - Towards Explainable In-the-Wild Video Quality Assessment: A Database and
a Language-Prompted Approach [52.07084862209754]
われわれは、13次元の質関連因子に関する4,543本のビデオについて200万以上の意見を集めている。
具体的には、各次元に対して正、負、中立の選択をラベル付けするよう被験者に求める。
これらの説明レベルの意見は、特定の品質要因と抽象的な主観的品質評価の関係を測ることができる。
論文 参考訳(メタデータ) (2023-05-22T05:20:23Z) - Towards Robust Text-Prompted Semantic Criterion for In-the-Wild Video
Quality Assessment [54.31355080688127]
コントラスト言語画像事前学習(CLIP)を用いたテキストプロンプト付きセマンティック親和性品質指標(SAQI)とそのローカライズ版(SAQI-Local)を導入する。
BVQI-Localは前例のないパフォーマンスを示し、すべてのデータセットで既存のゼロショットインデックスを少なくとも24%上回る。
我々は、異なる指標の異なる品質問題を調べるために包括的な分析を行い、設計の有効性と合理性を示す。
論文 参考訳(メタデータ) (2023-04-28T08:06:05Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - Perceptual Quality Assessment of Virtual Reality Videos in the Wild [50.33693148440248]
既存のパノラマビデオデータベースでは、合成歪みのみを考慮し、一定の視聴条件を仮定し、サイズに制限がある。
我々はVRVQW(VR Video Quality in the Wild)データベースを構築した。
我々は,2つの異なる視聴条件下で,139ドルの被験者から,スキャンパスと品質スコアを記録するための正式な心理物理実験を行った。
論文 参考訳(メタデータ) (2022-06-13T02:22:57Z) - Deep Quality Assessment of Compressed Videos: A Subjective and Objective
Study [23.3509109592315]
ビデオ符号化プロセスでは、圧縮ビデオの知覚品質を、フル参照品質評価指標により評価する。
この問題を解決するために,非参照圧縮映像品質評価アルゴリズムの設計が重要である。
本研究では,大規模圧縮映像品質データベースを構築するために,半自動ラベリング方式を採用する。
論文 参考訳(メタデータ) (2022-05-07T10:50:06Z) - Unified Quality Assessment of In-the-Wild Videos with Mixed Datasets
Training [20.288424566444224]
我々は、コンピュータビジョンアプリケーションにおいて、Wildビデオの品質を自動評価することに注力する。
品質評価モデルの性能向上のために,人間の知覚から直観を借りる。
複数のデータセットで単一のVQAモデルをトレーニングするための混合データセットトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-11-09T09:22:57Z) - No-Reference Image Quality Assessment via Feature Fusion and Multi-Task
Learning [29.19484863898778]
ブラインドまたはノン参照画像品質評価(NR-IQA)は基本的な問題であり、未解決であり、難しい問題である。
マルチタスク学習に基づく簡易かつ効果的な汎用的ノンリフレクション(NR)画像品質評価フレームワークを提案する。
このモデルでは、歪み型と主観的な人間のスコアを用いて画質を推定する。
論文 参考訳(メタデータ) (2020-06-06T05:04:10Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。