論文の概要: Towards Deep Learning Methods for Quality Assessment of
Computer-Generated Imagery
- arxiv url: http://arxiv.org/abs/2005.00836v1
- Date: Sat, 2 May 2020 14:08:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 13:11:24.257322
- Title: Towards Deep Learning Methods for Quality Assessment of
Computer-Generated Imagery
- Title(参考訳): コンピュータ画像の品質評価のための深層学習法
- Authors: Markus Utke, Saman Zadtootaghaj, Steven Schmidt, Sebastian M\"oller
- Abstract要約: 従来のビデオコンテンツとは対照的に、ゲームコンテンツはいくつかのゲームにおいて非常に高い動きのような特別な特徴を持つ。
本稿では,ゲーム品質評価のためのディープラーニングベースの品質指標を構築する計画について概説する。
- 参考スコア(独自算出の注目度): 2.580765958706854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video gaming streaming services are growing rapidly due to new services such
as passive video streaming, e.g. Twitch.tv, and cloud gaming, e.g. Nvidia
Geforce Now. In contrast to traditional video content, gaming content has
special characteristics such as extremely high motion for some games, special
motion patterns, synthetic content and repetitive content, which makes the
state-of-the-art video and image quality metrics perform weaker for this
special computer generated content. In this paper, we outline our plan to build
a deep learningbased quality metric for video gaming quality assessment. In
addition, we present initial results by training the network based on VMAF
values as a ground truth to give some insights on how to build a metric in
future. The paper describes the method that is used to choose an appropriate
Convolutional Neural Network architecture. Furthermore, we estimate the size of
the required subjective quality dataset which achieves a sufficiently high
performance. The results show that by taking around 5k images for training of
the last six modules of Xception, we can obtain a relatively high performance
metric to assess the quality of distorted video games.
- Abstract(参考訳): ビデオゲームストリーミングサービスは、Twitch.tvのような受動的ビデオストリーミングや、Nvidia Geforce Nowのようなクラウドゲームといった新しいサービスによって急速に成長している。
従来のビデオコンテンツとは対照的に、ゲームコンテンツには、ゲームにおける非常に高い動き、特殊なモーションパターン、合成コンテンツ、繰り返しコンテンツといった特別な特性があり、この特殊なコンピュータ生成コンテンツに対して、最先端のビデオや画質指標がより弱い。
本稿では,ゲーム品質評価のための深層学習ベースの品質指標を構築する計画について概説する。
さらに,vmaf値に基づくネットワークを基礎的真実としてトレーニングし,将来的なメトリクス構築方法に関する洞察を与えることにより,最初の結果を提示する。
本稿では,適切な畳み込みニューラルネットワークアーキテクチャを選択するための手法について述べる。
さらに,十分な性能を実現するために必要な主観的品質データセットのサイズを推定する。
その結果,Xceptionの最後の6つのモジュールをトレーニングするために,約5kの画像を撮影することで,変形したビデオゲームの品質を評価するための比較的高い評価基準が得られることがわかった。
関連論文リスト
- VQA$^2$: Visual Question Answering for Video Quality Assessment [76.81110038738699]
ビデオ品質アセスメント(VQA)は、低レベルの視覚知覚において古典的な分野である。
画像領域における最近の研究は、視覚質問応答(VQA)が視覚的品質を著しく低レベルに評価できることを示した。
VQA2インストラクションデータセットは,ビデオ品質評価に焦点をあてた最初の視覚的質問応答インストラクションデータセットである。
VQA2シリーズは、ビデオにおける空間的時間的品質の詳細の知覚を高めるために、視覚的および運動的トークンをインターリーブする。
論文 参考訳(メタデータ) (2024-11-06T09:39:52Z) - CLIPVQA:Video Quality Assessment via CLIP [56.94085651315878]
VQA問題(CLIPVQA)に対する効率的なCLIPベースのトランスフォーマー手法を提案する。
提案したCLIPVQAは、新しい最先端のVQAパフォーマンスを実現し、既存のベンチマークVQAメソッドよりも最大で37%の汎用性を実現している。
論文 参考訳(メタデータ) (2024-07-06T02:32:28Z) - VCEval: Rethinking What is a Good Educational Video and How to Automatically Evaluate It [46.67441830344145]
本稿では,映像コンテンツの品質を自動評価する作業に焦点をあてる。
これらの原則に基づいて,3つの評価原則を提案し,新しい評価フレームワークであるtextitVCEval を設計する。
本手法は,コンテンツ品質の異なるビデオコースを効果的に識別し,様々な解釈可能な結果を生成する。
論文 参考訳(メタデータ) (2024-06-15T13:18:30Z) - RMT-BVQA: Recurrent Memory Transformer-based Blind Video Quality Assessment for Enhanced Video Content [7.283653823423298]
本稿では,映像コンテンツの改良を目的とした新しいブラインド・ディープ・ビデオ品質評価手法を提案する。
新しいリカレントメモリトランス (Recurrent Memory Transformer, RMT) ベースのネットワークアーキテクチャを使用して、ビデオ品質の表現を得る。
抽出された品質表現は線形回帰によって合成され、ビデオレベルの品質指標を生成する。
論文 参考訳(メタデータ) (2024-05-14T14:01:15Z) - Perceptual Video Quality Assessment: A Survey [63.61214597655413]
映像品質評価は,映像処理分野において重要な役割を担っている。
過去20年間に様々な主観的・客観的な映像品質評価研究が実施されてきた。
この調査は、これらのビデオ品質アセスメント研究の最新かつ包括的なレビューを提供する。
論文 参考訳(メタデータ) (2024-02-05T16:13:52Z) - A Video Is Worth 4096 Tokens: Verbalize Videos To Understand Them In
Zero Shot [67.00455874279383]
そこで本研究では,自然言語による記述を生成するために長編動画を音声化し,生成したストーリーの映像理解タスクを実行することを提案する。
提案手法は,ゼロショットであるにもかかわらず,ビデオ理解のための教師付きベースラインよりもはるかに優れた結果が得られる。
ストーリー理解ベンチマークの欠如を緩和するため,我々は,説得戦略の識別に関する計算社会科学における重要な課題に関する最初のデータセットを公開している。
論文 参考訳(メタデータ) (2023-05-16T19:13:11Z) - Video Content Classification using Deep Learning [0.0]
本稿では、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を組み合わせたモデルを提案する。
モデルは、動画コンテンツの種類を特定し、それらを「アニメーション、ゲーム、自然コンテンツ、フラットコンテンツ」などのカテゴリに分類することができる。
論文 参考訳(メタデータ) (2021-11-27T04:36:17Z) - RAPIQUE: Rapid and Accurate Video Quality Prediction of User Generated
Content [44.03188436272383]
RAPIQUE(Rapid and Accurate Video Quality Evaluator)をダブする、コンテンツのための効率的で効率的なビデオ品質モデルを紹介します。
RAPIQUEは、品質認識のシーン統計機能と意味認識の深い畳み込み機能の両方の利点を組み合わせて活用します。
最近の大規模なビデオ品質データベースに関する実験結果から、RAPIQUEはすべてのデータセットで最高のパフォーマンスを計算コストを大幅に削減できます。
論文 参考訳(メタデータ) (2021-01-26T17:23:46Z) - Hybrid Dynamic-static Context-aware Attention Network for Action
Assessment in Long Videos [96.45804577283563]
本稿では,長期ビデオにおけるアクションアセスメントのための新しいハイブリットDynAmic-static Context-aware AttenTION NETwork(ACTION-NET)を提案する。
ビデオのダイナミックな情報を学習すると同時に,特定フレームにおける検出した選手の静的姿勢にも焦点をあてる。
2つのストリームの特徴を組み合わせることで、専門家が与えた地道的なスコアによって監督され、最終的なビデオスコアを後退させます。
論文 参考訳(メタデータ) (2020-08-13T15:51:42Z) - Encoding in the Dark Grand Challenge: An Overview [60.9261003831389]
低照度映像シーケンスの符号化に関するグランドチャレンジを提案する。
VVCは、エンコーディングに先立って単にビデオソースをデノベートするよりも高いパフォーマンスを達成する。
後処理画像強調法を用いることで、ビデオストリームの品質をさらに向上することができる。
論文 参考訳(メタデータ) (2020-05-07T08:22:56Z) - Feature Re-Learning with Data Augmentation for Video Relevance
Prediction [35.87597969685573]
再学習は、アフィン変換によって与えられた深い機能を新しい空間に投影することで実現される。
本稿では,フレームレベルとビデオレベルの機能に直接依存する新たなデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2020-04-08T05:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。