論文の概要: StableVQA: A Deep No-Reference Quality Assessment Model for Video
Stability
- arxiv url: http://arxiv.org/abs/2308.04904v3
- Date: Fri, 27 Oct 2023 09:13:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 17:03:42.403411
- Title: StableVQA: A Deep No-Reference Quality Assessment Model for Video
Stability
- Title(参考訳): StableVQA:ビデオの安定性のための深いノン参照品質評価モデル
- Authors: Tengchuan Kou, Xiaohong Liu, Wei Sun, Jun Jia, Xiongkuo Min, Guangtao
Zhai, Ning Liu
- Abstract要約: ビデオシェーキネス(英: video shakiness)は、ユーザー生成コンテンツ(UGC)ビデオの不愉快な歪みであり、通常は不安定なカメラホールドによって引き起こされる。
我々は1,952種類の動画を多種多様に整った新しいデータベースを構築し、34人の被験者によって評価されたビデオ安定性の度合いに基づいて、各ビデオに平均オピニオンスコア(MOS)がある。
我々は,光学的フロー,セマンティック,ブラーの3つの特徴抽出器と,最終的な安定性を予測するための回帰層からなる,新しいVQA-SモデルであるStableVQAを精巧に設計する。
- 参考スコア(独自算出の注目度): 56.462032266188785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video shakiness is an unpleasant distortion of User Generated Content (UGC)
videos, which is usually caused by the unstable hold of cameras. In recent
years, many video stabilization algorithms have been proposed, yet no specific
and accurate metric enables comprehensively evaluating the stability of videos.
Indeed, most existing quality assessment models evaluate video quality as a
whole without specifically taking the subjective experience of video stability
into consideration. Therefore, these models cannot measure the video stability
explicitly and precisely when severe shakes are present. In addition, there is
no large-scale video database in public that includes various degrees of shaky
videos with the corresponding subjective scores available, which hinders the
development of Video Quality Assessment for Stability (VQA-S). To this end, we
build a new database named StableDB that contains 1,952 diversely-shaky UGC
videos, where each video has a Mean Opinion Score (MOS) on the degree of video
stability rated by 34 subjects. Moreover, we elaborately design a novel VQA-S
model named StableVQA, which consists of three feature extractors to acquire
the optical flow, semantic, and blur features respectively, and a regression
layer to predict the final stability score. Extensive experiments demonstrate
that the StableVQA achieves a higher correlation with subjective opinions than
the existing VQA-S models and generic VQA models. The database and codes are
available at https://github.com/QMME/StableVQA.
- Abstract(参考訳): ビデオシャキネス(video shakiness)は、通常、不安定なカメラのホールドによって引き起こされる、ユーザー生成コンテンツ(ugc)ビデオの不快な歪みである。
近年,多くのビデオ安定化アルゴリズムが提案されているが,ビデオの安定性を総合的に評価できる具体的な精度の指標は存在しない。
実際、既存の品質評価モデルのほとんどは、ビデオ安定性の主観的な経験を考慮せずに、全体的な品質を評価する。
したがって、これらのモデルでは映像の安定性を明示的かつ正確に測定することはできない。
また,ビデオ品質評価(VQA-S)の開発を阻害する主観的スコアが利用可能な,様々な程度にぼやけたビデオを含む大規模ビデオデータベースは公開されていない。
そこで我々は,stabledbという新たなデータベースを構築した。このデータベースには1,952種類のシェークなugcビデオが含まれており,各ビデオは平均評価スコア(mos)を34名の被験者で評価する。
さらに,光学的フロー,セマンティック,ブラー特徴をそれぞれ取得する3つの特徴抽出器と,最終的な安定性を予測するための回帰層からなる新しいVQA-SモデルであるStableVQAを精巧に設計する。
広範囲な実験により、StableVQAは既存のVQA-Sモデルや一般的なVQAモデルよりも主観的意見との相関が高いことが示されている。
データベースとコードはhttps://github.com/qmme/stablevqaで入手できる。
関連論文リスト
- Benchmarking AIGC Video Quality Assessment: A Dataset and Unified Model [54.69882562863726]
主観的および客観的品質評価の観点からAIGC-VQA問題を体系的に検討する。
我々は,空間的品質,時間的品質,テキスト・ツー・ビデオアライメントの3次元から,AIGCビデオの知覚品質を評価する。
本稿では,AIGCビデオの品質を包括的かつ正確に評価するUnify Generated Video Quality Assessment (UGVQ)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-31T07:54:26Z) - Enhancing Blind Video Quality Assessment with Rich Quality-aware Features [79.18772373737724]
ソーシャルメディアビデオの視覚的品質評価(BVQA)モデルを改善するための,シンプルだが効果的な手法を提案する。
本稿では,BIQAモデルとBVQAモデルを用いて,事前学習したブラインド画像品質評価(BIQA)から,リッチな品質認識機能について検討する。
実験により,提案モデルが3つのソーシャルメディアVQAデータセット上で最高の性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-05-14T16:32:11Z) - Modular Blind Video Quality Assessment [33.657933680973194]
Blind Video Quality Assessment (BVQA) は、幅広いビデオベースのプラットフォームやサービスにおけるエンドユーザーの視聴体験を評価し改善する上で重要な役割を担っている。
本稿では,モジュール性向上のためのモジュール型BVQAモデルとトレーニング方法を提案する。
論文 参考訳(メタデータ) (2024-02-29T15:44:00Z) - KVQ: Kwai Video Quality Assessment for Short-form Videos [24.5291786508361]
我々は,600本のユーザアップロードショートビデオと3600本のプロセッシングビデオからなる,最初の大規模KVQ(Kleidoscope short Video database for Quality Assessment)を構築した。
そこで我々は,KSVQEというビデオ品質評価装置を提案する。これにより,品質決定セマンティクスを大規模視覚言語モデルの内容理解とともに識別することができる。
論文 参考訳(メタデータ) (2024-02-11T14:37:54Z) - Analysis of Video Quality Datasets via Design of Minimalistic Video Quality Models [71.06007696593704]
BVQA(Blind Quality Assessment)は、実世界のビデオ対応メディアアプリケーションにおけるエンドユーザの視聴体験の監視と改善に不可欠である。
実験分野として、BVQAモデルの改良は、主に数個の人間の評価されたVQAデータセットに基づいて測定されている。
最小主義的BVQAモデルを用いて,VQAデータセットの第一種計算解析を行う。
論文 参考訳(メタデータ) (2023-07-26T06:38:33Z) - Towards Explainable In-the-Wild Video Quality Assessment: A Database and
a Language-Prompted Approach [52.07084862209754]
われわれは、13次元の質関連因子に関する4,543本のビデオについて200万以上の意見を集めている。
具体的には、各次元に対して正、負、中立の選択をラベル付けするよう被験者に求める。
これらの説明レベルの意見は、特定の品質要因と抽象的な主観的品質評価の関係を測ることができる。
論文 参考訳(メタデータ) (2023-05-22T05:20:23Z) - UGC-VQA: Benchmarking Blind Video Quality Assessment for User Generated
Content [59.13821614689478]
コンテンツの品質劣化は予測不能で、複雑で、しばしば開始されるため、Wild動画のブラインド品質の予測は非常に難しい。
ここでは、主要なVQAモデルの包括的評価を行うことにより、この問題の進展に寄与する。
先行するVQAモデルの特徴の上に特徴選択戦略を適用することで,先行するモデルが使用する統計的特徴のうち60点を抽出することができる。
我々の実験結果から,VIDEVALは,他の先行モデルよりも計算コストがかなり低く,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-29T00:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。