論文の概要: No-reference Screen Content Image Quality Assessment with Unsupervised
Domain Adaptation
- arxiv url: http://arxiv.org/abs/2008.08561v4
- Date: Wed, 26 May 2021 03:00:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 12:08:09.294851
- Title: No-reference Screen Content Image Quality Assessment with Unsupervised
Domain Adaptation
- Title(参考訳): 教師なし領域適応による非参照画面画像品質評価
- Authors: Baoliang Chen, Haoliang Li, Hongfei Fan and Shiqi Wang
- Abstract要約: 我々は、SCIのための参照品質評価法を初めて未監視領域適応に基づいて開発する。
ペアワイズ関係の伝達可能性に触発されて、提案した品質尺度は、伝達可能性と識別可能性を同時に改善する思想に基づいて機能する。
提案手法は,軽量畳み込みニューラルネットワークに基づいて,異なるソースターゲット設定で高い性能を実現することができる。
- 参考スコア(独自算出の注目度): 37.1611601418026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we quest the capability of transferring the quality of natural
scene images to the images that are not acquired by optical cameras (e.g.,
screen content images, SCIs), rooted in the widely accepted view that the human
visual system has adapted and evolved through the perception of natural
environment. Here, we develop the first unsupervised domain adaptation based no
reference quality assessment method for SCIs, leveraging rich subjective
ratings of the natural images (NIs). In general, it is a non-trivial task to
directly transfer the quality prediction model from NIs to a new type of
content (i.e., SCIs) that holds dramatically different statistical
characteristics. Inspired by the transferability of pair-wise relationship, the
proposed quality measure operates based on the philosophy of improving the
transferability and discriminability simultaneously. In particular, we
introduce three types of losses which complementarily and explicitly regularize
the feature space of ranking in a progressive manner. Regarding feature
discriminatory capability enhancement, we propose a center based loss to
rectify the classifier and improve its prediction capability not only for
source domain (NI) but also the target domain (SCI). For feature discrepancy
minimization, the maximum mean discrepancy (MMD) is imposed on the extracted
ranking features of NIs and SCIs. Furthermore, to further enhance the feature
diversity, we introduce the correlation penalization between different feature
dimensions, leading to the features with lower rank and higher diversity.
Experiments show that our method can achieve higher performance on different
source-target settings based on a light-weight convolution neural network. The
proposed method also sheds light on learning quality assessment measures for
unseen application-specific content without the cumbersome and costing
subjective evaluations.
- Abstract(参考訳): 本稿では,光学カメラが取得していない画像(スクリーンコンテンツ画像,SCIなど)に対して,人間の視覚系が自然環境の知覚を通じて適応し進化してきたという広く受け入れられている見解に根ざして,自然景観画像の品質を伝達する能力を求める。
そこで本研究では,SCIの参照品質評価手法として,自然画像(NI)のリッチな主観評価を利用する非教師なし領域適応法を開発した。
一般に、品質予測モデルをnisから、劇的に異なる統計特性を持つ新しいタイプのコンテンツ(すなわちsas)に直接転送することは、非自明なタスクである。
対関係の伝達可能性に着想を得て,提案する品質尺度は,伝達可能性と識別性を同時に向上する哲学に基づいて動作する。
特に,3種類の損失を導入し,段階的にランク付けする特徴空間を補完的かつ明示的に調整する。
特徴判別能力の強化については,分類器の修正と予測能力の向上のために,ソースドメイン (ni) だけでなくターゲットドメイン (sci) についてもセンターベースロスを提案する。
特徴差最小化のために、NIとSCIの抽出したランキング特徴に最大平均誤差(MMD)を課す。
さらに, 特徴の多様性をさらに高めるため, 異なる特徴次元間の相関ペナリゼーションを導入し, 低いランクと高い多様性を持つ特徴に繋がる。
実験により, 重み付き畳み込みニューラルネットワークを用いて, 異なるソースターゲット設定で高い性能が得られることを示した。
提案手法は,難易度や主観評価のコストを伴わずに,未認識のアプリケーション固有のコンテンツに対する学習品質評価手法にも光を当てている。
関連論文リスト
- Bridging the Synthetic-to-Authentic Gap: Distortion-Guided Unsupervised Domain Adaptation for Blind Image Quality Assessment [46.64517740627379]
合成データのトレーニングは有用であることが期待されているが、合成訓練されたモデルはドメインギャップのため、実際のドメインでの一般化に苦しむことが多い。
本研究では,合成データセットにより多くの歪み型を導入することは,画像品質評価の一般化に悪影響を及ぼさないか,あるいは有害である可能性があることを重要視する。
本稿では、歪みからの事前知識を介して適応的な多領域選択を利用する新しいフレームワークであるBIQA(DGQA)の歪み誘導型非教師付きドメイン適応を提案する。
論文 参考訳(メタデータ) (2024-05-07T10:07:33Z) - Adaptive Feature Selection for No-Reference Image Quality Assessment by Mitigating Semantic Noise Sensitivity [55.399230250413986]
上流タスクから有害なセマンティックノイズを除去するためのQFM-IQM(Quality-Aware Feature Matching IQA Metric)を提案する。
提案手法は,8つの標準IQAデータセット上での最先端NR-IQA法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T06:50:27Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - StyleAM: Perception-Oriented Unsupervised Domain Adaption for
Non-reference Image Quality Assessment [23.289183622856704]
NR-IQAのための効果的な知覚指向非教師付きドメイン適応手法であるStyleAMを提案する。
StyleAMはラベル豊富なソースドメインデータからStyle AlignmentとMixupを通じてラベルのないターゲットドメインイメージに十分な知識を転送する。
今回提案したStyleAMのNR-IQAに対する有効性を示した。
論文 参考訳(メタデータ) (2022-07-29T05:51:18Z) - Textural-Structural Joint Learning for No-Reference Super-Resolution
Image Quality Assessment [59.91741119995321]
我々は、TSNetと呼ばれる品質予測のためのテキスト情報と構造情報を共同で探索するデュアルストリームネットワークを開発した。
画像の重要な領域に注意を払っている人間の視覚システム(HVS)を模倣することにより、視覚に敏感な領域をより区別しやすくするための空間的注意機構を開発する。
実験の結果,提案したTSNetは現状のIQA法よりも視覚的品質を正確に予測し,人間の視点との整合性を示した。
論文 参考訳(メタデータ) (2022-05-27T09:20:06Z) - No-Reference Point Cloud Quality Assessment via Domain Adaptation [31.280188860021248]
本稿では,3次元点雲に対する画像伝達点雲品質評価(IT-PCQA)の新たな非参照品質評価指標を提案する。
特に,自然画像をソース領域として,点雲を対象領域として扱うとともに,教師なしの敵領域適応により点雲の品質を推定する。
実験結果から,提案手法は従来のノン参照指標よりも高い性能が得られることが示された。
論文 参考訳(メタデータ) (2021-12-06T08:20:40Z) - No-Reference Image Quality Assessment by Hallucinating Pristine Features [24.35220427707458]
本稿では,特徴レベルの擬似参照(PR)幻覚を用いた非参照画像品質評価(IQA)手法を提案する。
提案手法の有効性を4つのIQAデータベースで実証した。
論文 参考訳(メタデータ) (2021-08-09T16:48:34Z) - A-FMI: Learning Attributions from Deep Networks via Feature Map
Importance [58.708607977437794]
勾配に基づくアトリビューション法は畳み込みニューラルネットワーク(CNN)の理解を助けることができる
帰属特徴の冗長性と勾配飽和問題は、帰属方法がまだ直面する課題である。
本稿では,各特徴マップの寄与度を高めるための新しい概念,特徴マップ重要度 (FMI) と,勾配飽和問題に対処するためのFMIによる新しい帰属法を提案する。
論文 参考訳(メタデータ) (2021-04-12T14:54:44Z) - Style Normalization and Restitution for DomainGeneralization and
Adaptation [88.86865069583149]
効果的なドメイン一般化モデルは、一般化および判別可能な特徴表現を学習することが期待される。
本稿では,ネットワークの高一般化と識別能力を確保するために,新しいスタイル正規化・再構成モジュール(SNR)を設計する。
論文 参考訳(メタデータ) (2021-01-03T09:01:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。