論文の概要: VMAF And Variants: Towards A Unified VQA
- arxiv url: http://arxiv.org/abs/2103.07770v1
- Date: Sat, 13 Mar 2021 18:41:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 13:55:32.676932
- Title: VMAF And Variants: Towards A Unified VQA
- Title(参考訳): VMAFと変数:統一VQAに向けて
- Authors: Pankaj Topiwala, Wei Dai, Jiangfeng Pian
- Abstract要約: ビデオ品質アセスメント (VQA) は急速に成長し, フルリファレンス (FR) の症例では成熟し始めた。
FR ケースに対する VMAF ビデオ品質評価アルゴリズムの変種について検討した。
同じ学習アーキテクチャを使用してNRケースに拡張し、部分的に統合されたVQAフレームワークを開発しています。
- 参考スコア(独自算出の注目度): 3.1789110611651266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video quality assessment (VQA) is now a fastgrowing subject, beginning to
mature in the full reference (FR) case, while the burgeoning no reference (NR)
case remains challenging. We investigate variants of the popular VMAF video
quality assessment algorithm for the FR case, using support vector regression
and feedforward neural networks, and extend it to the NR case, using the same
learning architectures, to develop a partially unified framework for VQA. When
heavily trained, algorithms such as VMAF perform well on test datasets, with
90%+ match; but predicting performance in the wild is better done by
training/testing from scratch, as we do. Even from scratch, we achieve 90%+
performance in FR, with gains over VMAF. And we greatly reduce complexity vs.
leading recent NR algorithms, VIDEVAL, RAPIQUE, yet exceed 80% in SRCC. In our
preliminary testing, we find the improvements in trainability, while also
constraining computational complexity, as quite encouraging, suggesting further
study and analysis.
- Abstract(参考訳): ビデオ品質アセスメント (VQA) は急速に成長し, フルレファレンス (FR) 症例では成熟し始めたが, ハイレファレンス (NR) 症例はいまだに困難である。
FRの場合,サポートベクトル回帰とフィードフォワードニューラルネットワークを用いて,一般的なVMAFビデオ品質評価アルゴリズムの変種を調査し,同じ学習アーキテクチャを用いてNRケースに拡張し,VQAのための部分的に統一されたフレームワークを開発する。
高度にトレーニングされた場合、VMAFのようなアルゴリズムは90%以上のマッチでテストデータセット上でうまく動作します。
FRでは、ゼロからでも90%以上のパフォーマンスを実現し、VMAFを上回ります。
そして、最近のNRアルゴリズムであるVIDEVAL、RAPIQUEに比べて複雑さを大幅に減らし、SRCCの80%を超えています。
予備テストでは、トレーサビリティの改善と計算の複雑さの制約が極めて有望であり、さらなる研究と分析を示唆しています。
関連論文リスト
- ADMM Training Algorithms for Residual Networks: Convergence, Complexity
and Parallel Training [6.0068966996888395]
我々はFCResNetsトレーニング問題に対して,一連のシリアルおよび並列近位点(漸進点)ADMMを設計する。
近点バージョンの収束性は、Kurtyka-Lojasiewicz (KL)プロパティ分析フレームワークに基づいて証明される。
並列実装の利点は、時間的複雑さの低減と(ノード単位の)メモリ消費の削減である。
論文 参考訳(メタデータ) (2023-10-23T20:01:06Z) - Multilingual Augmentation for Robust Visual Question Answering in Remote
Sensing Images [19.99615698375829]
多様な質問テンプレートや単語に対して頑健なRSVQAモデルをトレーニングするための対照的な学習戦略を提案する。
実験の結果,提案手法はRSVQAモデルのロバスト性向上に有効であることが示された。
論文 参考訳(メタデータ) (2023-04-07T21:06:58Z) - Neighbourhood Representative Sampling for Efficient End-to-end Video
Quality Assessment [60.57703721744873]
リアルタイムビデオの高解像度化は、VQA(Deep Video Quality Assessment)の効率性と精度のジレンマを示す
そこで本研究では,空間時空間格子型ミニキューブサンプリング(St-GMS)を統一的に提案し,新しいタイプのフラグメントを抽出する。
フラグメントとFANetにより、提案された効率的なエンドツーエンドのFAST-VQAとFasterVQAは、既存のVQAベンチマークよりも大幅にパフォーマンスが向上した。
論文 参考訳(メタデータ) (2022-10-11T11:38:07Z) - FAST-VQA: Efficient End-to-end Video Quality Assessment with Fragment
Sampling [54.31355080688127]
現在のDeep Video Quality Assessment (VQA) 法は通常、高解像度ビデオを評価する際に高い計算コストがかかる。
そこで我々はGrid Mini-patch Smpling (GMS)を提案する。
フラグメント・アテンション・ネットワーク(FANet)は,フラグメントを入力として扱うように設計されている。
FAST-VQAは1080P高解像度ビデオで99.5%のFLOPを削減し、最先端の精度を約10%向上させる。
論文 参考訳(メタデータ) (2022-07-06T11:11:43Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Adversarial VQA: A New Benchmark for Evaluating the Robustness of VQA
Models [45.777326168922635]
本稿では,新たな大規模VQAベンチマークであるAdversarial VQAを紹介する。
非熟練アノテータは比較的容易にSOTA VQAモデルに攻撃できることがわかった。
大規模な事前訓練モデルと敵のトレーニング方法はどちらも、標準的なVQA v2データセットで達成できるものよりもはるかに低いパフォーマンスしか達成できない。
論文 参考訳(メタデータ) (2021-06-01T05:54:41Z) - Contrast and Classify: Training Robust VQA Models [60.80627814762071]
本稿では,クロスエントロピーとコントラスト損失の両方を最適化する新しいトレーニングパラダイム(ConClaT)を提案する。
双方の損失を -- 交互に,あるいは共同で -- 最適化することが,効果的なトレーニングの鍵であることに気付きました。
論文 参考訳(メタデータ) (2020-10-13T00:23:59Z) - UGC-VQA: Benchmarking Blind Video Quality Assessment for User Generated
Content [59.13821614689478]
コンテンツの品質劣化は予測不能で、複雑で、しばしば開始されるため、Wild動画のブラインド品質の予測は非常に難しい。
ここでは、主要なVQAモデルの包括的評価を行うことにより、この問題の進展に寄与する。
先行するVQAモデルの特徴の上に特徴選択戦略を適用することで,先行するモデルが使用する統計的特徴のうち60点を抽出することができる。
我々の実験結果から,VIDEVALは,他の先行モデルよりも計算コストがかなり低く,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-29T00:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。