論文の概要: Deep Neural Network for Blind Visual Quality Assessment of 4K Content
- arxiv url: http://arxiv.org/abs/2206.04363v1
- Date: Thu, 9 Jun 2022 09:10:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 15:57:59.096686
- Title: Deep Neural Network for Blind Visual Quality Assessment of 4K Content
- Title(参考訳): 4kコンテンツの視覚品質評価のためのディープニューラルネットワーク
- Authors: Wei Lu, Wei Sun, Xiongkuo Min, Wenhan Zhu, Quan Zhou, Jun He, Qiyuan
Wang, Zicheng Zhang, Tao Wang, Guangtao Zhai
- Abstract要約: 既存のブラインド画像品質評価法(BIQA)は、オリジナルおよびアップスケールの4Kコンテンツには適していない。
本研究では、4Kコンテンツに対する深層学習に基づくBIQAモデルを提案する。
提案手法はマルチタスク学習方式を用いて学習し,分類タスクと回帰タスクの損失のバランスをとる不確実性原理を導入する。
- 参考スコア(独自算出の注目度): 37.70643043547502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The 4K content can deliver a more immersive visual experience to consumers
due to the huge improvement of spatial resolution. However, existing blind
image quality assessment (BIQA) methods are not suitable for the original and
upscaled 4K contents due to the expanded resolution and specific distortions.
In this paper, we propose a deep learning-based BIQA model for 4K content,
which on one hand can recognize true and pseudo 4K content and on the other
hand can evaluate their perceptual visual quality. Considering the
characteristic that high spatial resolution can represent more abundant
high-frequency information, we first propose a Grey-level Co-occurrence Matrix
(GLCM) based texture complexity measure to select three representative image
patches from a 4K image, which can reduce the computational complexity and is
proven to be very effective for the overall quality prediction through
experiments. Then we extract different kinds of visual features from the
intermediate layers of the convolutional neural network (CNN) and integrate
them into the quality-aware feature representation. Finally, two multilayer
perception (MLP) networks are utilized to map the quality-aware features into
the class probability and the quality score for each patch respectively. The
overall quality index is obtained through the average pooling of patch results.
The proposed model is trained through the multi-task learning manner and we
introduce an uncertainty principle to balance the losses of the classification
and regression tasks. The experimental results show that the proposed model
outperforms all compared BIQA metrics on four 4K content quality assessment
databases.
- Abstract(参考訳): 4Kコンテンツは、空間解像度の大幅な改善により、より没入的な視覚体験を消費者に提供することができる。
しかし,既存の視覚障害者画像品質評価(biqa)法は,解像度の増大や歪みの増大などにより,オリジナルコンテンツや拡張4kコンテンツには適していない。
本稿では、4Kコンテンツに対する深層学習に基づくBIQAモデルを提案する。
高空間分解能がより豊富な高周波情報を表現できる特性を考慮し、4k画像から3つの代表画像パッチを選択するためのgrey-level co-occurrence matrix (glcm) ベースのテクスチャ複雑性尺度を提案する。
次に、畳み込みニューラルネットワーク(CNN)の中間層から異なる種類の視覚的特徴を抽出し、それらを品質を考慮した特徴表現に統合する。
最後に、2つの多層知覚(mlp)ネットワークを用いて、各々のパッチに対する品質認識特徴をクラス確率と品質スコアにマッピングする。
全体の品質指標はパッチ結果の平均プーリングによって得られる。
提案モデルは,マルチタスク学習方法で学習し,分類と回帰タスクの損失をバランスさせる不確実性原理を導入する。
実験の結果,提案手法は4つの4Kコンテンツ品質評価データベースで比較したBIQA指標よりも優れていた。
関連論文リスト
- Learning Generalizable Perceptual Representations for Data-Efficient
No-Reference Image Quality Assessment [7.291687946822539]
最先端のNR-IQA技術の大きな欠点は、多数の人間のアノテーションに依存していることである。
低レベルな特徴の学習を、新しい品質に配慮したコントラスト損失を導入することで、歪みタイプの学習を可能にする。
両経路からゼロショット品質の予測を、完全に盲目な環境で設計する。
論文 参考訳(メタデータ) (2023-12-08T05:24:21Z) - Simple Baselines for Projection-based Full-reference and No-reference
Point Cloud Quality Assessment [60.2709006613171]
投影型ポイントクラウド品質評価(PCQA)のための簡易ベースラインを提案する。
我々は、全参照(FR)タスクと非参照(NR)PCQAタスクの両方に対して、点雲から共通立方体状の投影プロセスによって得られる多重射影を用いる。
ICIP 2023 PCVQA Challengeに参加して,5トラック中4トラックで首位を獲得した。
論文 参考訳(メタデータ) (2023-10-26T04:42:57Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - End-to-end deep multi-score model for No-reference stereoscopic image
quality assessment [6.254148286968409]
我々は、深層多スコア畳み込みニューラルネットワーク(CNN)を用いて、参照なしで立体画像の品質を推定する。
まず、左の視点の質を予測し、次に、左の視点の質を予測し、第3と第4に、ステレオ視点の質とグローバルな品質をそれぞれ予測し、グローバルスコアを究極の品質とする。
論文 参考訳(メタデータ) (2022-11-02T16:45:35Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - Attentions Help CNNs See Better: Attention-based Hybrid Image Quality
Assessment Network [20.835800149919145]
画像品質評価(IQA)アルゴリズムは、画像品質に対する人間の認識を定量化することを目的としている。
GAN(Generative Adversarial Network)によって生成された歪み画像を、一見現実的なテクスチャで評価する際の性能低下がある。
本稿では,AHIQ(Hybrid Image Quality Assessment Network)を提案する。
論文 参考訳(メタデータ) (2022-04-22T03:59:18Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - MUSIQ: Multi-scale Image Quality Transformer [22.908901641767688]
現在のIQA法は畳み込みニューラルネットワーク(CNN)に基づいている
マルチスケール画像品質変換器(MUSIQ)を設計し,サイズやアスペクト比の異なるネイティブ解像度画像を処理する。
提案手法は,マルチスケールの画像表現により,様々な粒度で画像品質を捉えることができる。
論文 参考訳(メタデータ) (2021-08-12T23:36:22Z) - Consumer Image Quality Prediction using Recurrent Neural Networks for
Spatial Pooling [13.750624267664156]
本稿では、リカレントニューラルネットワーク(RNN)を用いて、人間の視覚系(HVS)の注意機構を模倣する画像品質モデルを提案する。
最近発表された2つの画像品質データセットの解像度の異なる画像を用いて行った実験により、提案手法の品質予測精度は、最先端技術を表すベンチマークモデルと競合することを示した。
論文 参考訳(メタデータ) (2021-06-02T03:31:44Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。