論文の概要: Light-VQA+: A Video Quality Assessment Model for Exposure Correction with Vision-Language Guidance
- arxiv url: http://arxiv.org/abs/2405.03333v2
- Date: Tue, 14 May 2024 02:19:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 18:22:42.317503
- Title: Light-VQA+: A Video Quality Assessment Model for Exposure Correction with Vision-Language Guidance
- Title(参考訳): Light-VQA+:視線誘導による露出補正のための映像品質評価モデル
- Authors: Xunchu Zhou, Xiaohong Liu, Yunlong Dong, Tengchuan Kou, Yixuan Gao, Zicheng Zhang, Chunyi Li, Haoning Wu, Guangtao Zhai,
- Abstract要約: ビデオ露光補正アルゴリズム、低照度映像強調法(LLVE)、過剰露光映像再生法(OEVR)が提案されている。
LLVE-QAデータセットを過剰に露出したビデオとそれに対応する修正バージョンで拡張することで、Light-VQAの作業を拡張する。
また,VEC評価に特化したVQAモデルであるLight-VQA+を提案する。
- 参考スコア(独自算出の注目度): 37.216574207361255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, User-Generated Content (UGC) videos have gained popularity in our daily lives. However, UGC videos often suffer from poor exposure due to the limitations of photographic equipment and techniques. Therefore, Video Exposure Correction (VEC) algorithms have been proposed, Low-Light Video Enhancement (LLVE) and Over-Exposed Video Recovery (OEVR) included. Equally important to the VEC is the Video Quality Assessment (VQA). Unfortunately, almost all existing VQA models are built generally, measuring the quality of a video from a comprehensive perspective. As a result, Light-VQA, trained on LLVE-QA, is proposed for assessing LLVE. We extend the work of Light-VQA by expanding the LLVE-QA dataset into Video Exposure Correction Quality Assessment (VEC-QA) dataset with over-exposed videos and their corresponding corrected versions. In addition, we propose Light-VQA+, a VQA model specialized in assessing VEC. Light-VQA+ differs from Light-VQA mainly from the usage of the CLIP model and the vision-language guidance during the feature extraction, followed by a new module referring to the Human Visual System (HVS) for more accurate assessment. Extensive experimental results show that our model achieves the best performance against the current State-Of-The-Art (SOTA) VQA models on the VEC-QA dataset and other public datasets.
- Abstract(参考訳): 近年,ユーザ生成コンテンツ(UGC)ビデオが日常的に普及している。
しかし、UGCビデオは、撮影機器や技術に制限があるため、露出不良に悩まされることが多い。
そのため、ビデオ露光補正(VEC)アルゴリズム、低照度映像強調(LLVE)アルゴリズム、OEVR(Over-Exposed Video Recovery)アルゴリズムが提案されている。
ビデオ品質アセスメント(VQA)は、ビデオ品質アセスメント(VQA)である。
残念ながら、既存のVQAモデルのほとんどは一般的に構築されており、包括的な視点からビデオの品質を測定している。
その結果、LLVE-QAでトレーニングされたLight-VQAがLLVEの評価のために提案されている。
LLVE-QAデータセットをビデオ露出補正品質アセスメント(VEC-QA)データセットに拡張することで、Light-VQAの作業を拡張する。
また,VEC評価に特化したVQAモデルであるLight-VQA+を提案する。
Light-VQA+は、主にCLIPモデルの使用と特徴抽出時の視覚言語指導、さらにより正確な評価のためにHVS(Human Visual System)を参照する新しいモジュールとの違いがある。
VEC-QAデータセットおよび他の公開データセット上で,本モデルが現状のSOTA(State-Of-The-Art)VQAモデルに対して最高の性能を達成することを示す。
関連論文リスト
- VQA$^2$: Visual Question Answering for Video Quality Assessment [76.81110038738699]
ビデオ品質アセスメント(VQA)は、低レベルの視覚知覚において古典的な分野である。
画像領域における最近の研究は、視覚質問応答(VQA)が視覚的品質を著しく低レベルに評価できることを示した。
VQA2インストラクションデータセットは,ビデオ品質評価に焦点をあてた最初の視覚的質問応答インストラクションデータセットである。
VQA2シリーズは、ビデオにおける空間的時間的品質の詳細の知覚を高めるために、視覚的および運動的トークンをインターリーブする。
論文 参考訳(メタデータ) (2024-11-06T09:39:52Z) - Benchmarking AIGC Video Quality Assessment: A Dataset and Unified Model [54.69882562863726]
主観的および客観的品質評価の観点からAIGC-VQA問題を体系的に検討する。
我々は,空間的品質,時間的品質,テキスト・ツー・ビデオアライメントの3次元から,AIGCビデオの知覚品質を評価する。
本稿では,AIGCビデオの品質を包括的かつ正確に評価するUnify Generated Video Quality Assessment (UGVQ)モデルを提案する。
論文 参考訳(メタデータ) (2024-07-31T07:54:26Z) - CLIPVQA:Video Quality Assessment via CLIP [56.94085651315878]
VQA問題(CLIPVQA)に対する効率的なCLIPベースのトランスフォーマー手法を提案する。
提案したCLIPVQAは、新しい最先端のVQAパフォーマンスを実現し、既存のベンチマークVQAメソッドよりも最大で37%の汎用性を実現している。
論文 参考訳(メタデータ) (2024-07-06T02:32:28Z) - Ada-DQA: Adaptive Diverse Quality-aware Feature Acquisition for Video
Quality Assessment [25.5501280406614]
近年,映像品質評価 (VQA) が注目されている。
大規模VQAデータセットのアノテートに大きな費用が、現在のディープラーニング手法の主な障害となっている。
Ada-DQA(Adaptive Diverse Quality-Aware Feature Acquisition)フレームワークは、望ましい品質関連の特徴を捉えるために提案されている。
論文 参考訳(メタデータ) (2023-08-01T16:04:42Z) - Analysis of Video Quality Datasets via Design of Minimalistic Video Quality Models [71.06007696593704]
BVQA(Blind Quality Assessment)は、実世界のビデオ対応メディアアプリケーションにおけるエンドユーザの視聴体験の監視と改善に不可欠である。
実験分野として、BVQAモデルの改良は、主に数個の人間の評価されたVQAデータセットに基づいて測定されている。
最小主義的BVQAモデルを用いて,VQAデータセットの第一種計算解析を行う。
論文 参考訳(メタデータ) (2023-07-26T06:38:33Z) - Light-VQA: A Multi-Dimensional Quality Assessment Model for Low-Light
Video Enhancement [29.675736754133602]
本稿では,低照度映像強調(LLVE)に特化した品質評価モデルであるLight-VQAを提案する。
明るさとノイズが低照度VQAに与える影響が最も大きいため、我々はそれに対応する機能を手作りし、深層学習に基づく意味的特徴と統合する。
我々の実験は、LLVE-QAおよび公開データセット上の現在のステートオフ・ザ・アート(SOTA)に対して、我々のLight-VQAが最高のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-05-16T15:04:01Z) - UGC-VQA: Benchmarking Blind Video Quality Assessment for User Generated
Content [59.13821614689478]
コンテンツの品質劣化は予測不能で、複雑で、しばしば開始されるため、Wild動画のブラインド品質の予測は非常に難しい。
ここでは、主要なVQAモデルの包括的評価を行うことにより、この問題の進展に寄与する。
先行するVQAモデルの特徴の上に特徴選択戦略を適用することで,先行するモデルが使用する統計的特徴のうち60点を抽出することができる。
我々の実験結果から,VIDEVALは,他の先行モデルよりも計算コストがかなり低く,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-29T00:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。