論文の概要: StyleAM: Perception-Oriented Unsupervised Domain Adaption for
Non-reference Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2207.14489v1
- Date: Fri, 29 Jul 2022 05:51:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-01 12:57:16.305664
- Title: StyleAM: Perception-Oriented Unsupervised Domain Adaption for
Non-reference Image Quality Assessment
- Title(参考訳): StyleAM:非参照画像品質評価のための知覚指向非教師なしドメイン適応
- Authors: Yiting Lu and Xin Li and Jianzhao Liu and Zhibo Chen
- Abstract要約: NR-IQAのための効果的な知覚指向非教師付きドメイン適応手法であるStyleAMを提案する。
StyleAMはラベル豊富なソースドメインデータからStyle AlignmentとMixupを通じてラベルのないターゲットドメインイメージに十分な知識を転送する。
今回提案したStyleAMのNR-IQAに対する有効性を示した。
- 参考スコア(独自算出の注目度): 23.289183622856704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have shown great potential in non-reference image
quality assessment (NR-IQA). However, the annotation of NR-IQA is
labor-intensive and time-consuming, which severely limits their application
especially for authentic images. To relieve the dependence on quality
annotation, some works have applied unsupervised domain adaptation (UDA) to
NR-IQA. However, the above methods ignore that the alignment space used in
classification is sub-optimal, since the space is not elaborately designed for
perception. To solve this challenge, we propose an effective
perception-oriented unsupervised domain adaptation method StyleAM for NR-IQA,
which transfers sufficient knowledge from label-rich source domain data to
label-free target domain images via Style Alignment and Mixup. Specifically, we
find a more compact and reliable space i.e., feature style space for
perception-oriented UDA based on an interesting/amazing observation, that the
feature style (i.e., the mean and variance) of the deep layer in DNNs is
exactly associated with the quality score in NR-IQA. Therefore, we propose to
align the source and target domains in a more perceptual-oriented space i.e.,
the feature style space, to reduce the intervention from other
quality-irrelevant feature factors. Furthermore, to increase the consistency
between quality score and its feature style, we also propose a novel feature
augmentation strategy Style Mixup, which mixes the feature styles (i.e., the
mean and variance) before the last layer of DNNs together with mixing their
labels. Extensive experimental results on two typical cross-domain settings
(i.e., synthetic to authentic, and multiple distortions to one distortion) have
demonstrated the effectiveness of our proposed StyleAM on NR-IQA.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、非参照画像品質評価(NR-IQA)に大きな可能性を示している。
しかし、NR-IQAのアノテーションは労働集約的で時間を要するため、特に認証画像への利用は著しく制限される。
品質アノテーションへの依存を緩和するため、NR-IQAにunsupervised domain adaptation (UDA)を適用した研究もある。
しかし、上記の手法は、分類において使われるアライメント空間が準最適であることを無視している。
この課題を解決するために,NR-IQAのための効果的な認識指向非教師付きドメイン適応手法であるStyleAMを提案し,その知識をラベルリッチなソースドメインデータからStyle AlignmentとMixupを介してラベルフリーなターゲットドメイン画像に伝達する。
具体的には、DNNの深層における特徴形式(平均と分散)がNR-IQAの品質スコアと密接に関連していることから、よりコンパクトで信頼性の高い認識指向UDAの機能スタイル空間を見出した。
そこで本稿では,他の品質に関係のない特徴要因からの介入を減らすために,より知覚指向の領域,すなわち特徴スタイル空間にソースとターゲットドメインを整列させることを提案する。
さらに、品質スコアと特徴スタイルとの一貫性を高めるために、dnnの最終層の前に特徴スタイル(すなわち平均と分散)を混合し、それらのラベルを混合する新しい特徴強化戦略スタイルミックスアップを提案する。
2つの典型的なクロスドメイン設定(すなわち、合成から本物へ、複数の歪みから1つの歪みへ)に関する広範囲な実験結果が、提案手法がnr-iqaに与える影響を実証した。
関連論文リスト
- DP-IQA: Utilizing Diffusion Prior for Blind Image Quality Assessment in the Wild [54.139923409101044]
拡散先行型IQA(DP-IQA)と呼ばれる新しいIQA法を提案する。
トレーニング済みの安定拡散をバックボーンとして使用し、復調するU-Netから多レベル特徴を抽出し、それらをデコードして画質スコアを推定する。
上記のモデルの知識をCNNベースの学生モデルに抽出し、適用性を高めるためにパラメータを大幅に削減する。
論文 参考訳(メタデータ) (2024-05-30T12:32:35Z) - Adaptive Feature Selection for No-Reference Image Quality Assessment by Mitigating Semantic Noise Sensitivity [55.399230250413986]
上流タスクから有害なセマンティックノイズを除去するためのQFM-IQM(Quality-Aware Feature Matching IQA Metric)を提案する。
提案手法は,8つの標準IQAデータセット上での最先端NR-IQA法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-12-11T06:50:27Z) - Adaptive Face Recognition Using Adversarial Information Network [57.29464116557734]
顔認識モデルは、トレーニングデータがテストデータと異なる場合、しばしば退化する。
本稿では,新たな敵情報ネットワーク(AIN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:14:11Z) - Unsupervised Domain Adaptation via Style-Aware Self-intermediate Domain [52.08301776698373]
非教師なしドメイン適応(UDA)は、ラベル豊富なソースドメインから関連するがラベルのないターゲットドメインに知識を伝達する、かなりの注目を集めている。
本研究では,大規模なドメインギャップと伝達知識を橋渡しし,クラス非ネイティブ情報の損失を軽減するために,SAFF(style-aware feature fusion)法を提案する。
論文 参考訳(メタデータ) (2022-09-05T10:06:03Z) - Source-free Unsupervised Domain Adaptation for Blind Image Quality
Assessment [20.28784839680503]
既存の学習ベースのブラインド画像品質評価法(BIQA)は、大量の注釈付きトレーニングデータに大きく依存している。
本稿では,ソースフリーな非教師付きドメイン適応(SFUDA)への第一歩を,シンプルで効率的な方法で進める。
本稿では、BNアフィンパラメータのターゲット領域への適応を導くための、十分に設計された自己教師対象のグループを示す。
論文 参考訳(メタデータ) (2022-07-17T09:42:36Z) - No-Reference Point Cloud Quality Assessment via Domain Adaptation [31.280188860021248]
本稿では,3次元点雲に対する画像伝達点雲品質評価(IT-PCQA)の新たな非参照品質評価指標を提案する。
特に,自然画像をソース領域として,点雲を対象領域として扱うとともに,教師なしの敵領域適応により点雲の品質を推定する。
実験結果から,提案手法は従来のノン参照指標よりも高い性能が得られることが示された。
論文 参考訳(メタデータ) (2021-12-06T08:20:40Z) - Region-Adaptive Deformable Network for Image Quality Assessment [16.03642709194366]
画像復元および強化タスクでは、生成逆転ネットワーク(GAN)によって生成された画像は、従来のCNN生成画像よりも優れた視覚性能を達成できます。
GANに基づく歪みに対するIQAネットワークの性能を向上させるための参照指向の変形可能な畳み込みを提案する。
NTIRE 2021 Perceptual Image Quality Assessment Challengeデータセットの実験結果は、RADNの優れた性能を示している。
論文 参考訳(メタデータ) (2021-04-23T13:47:20Z) - Style Normalization and Restitution for DomainGeneralization and
Adaptation [88.86865069583149]
効果的なドメイン一般化モデルは、一般化および判別可能な特徴表現を学習することが期待される。
本稿では,ネットワークの高一般化と識別能力を確保するために,新しいスタイル正規化・再構成モジュール(SNR)を設計する。
論文 参考訳(メタデータ) (2021-01-03T09:01:39Z) - Unpaired Image Enhancement with Quality-Attention Generative Adversarial
Network [92.01145655155374]
品質の注意を払わないデータに基づいて訓練された生成敵対ネットワーク(QAGAN)を提案する。
提案されたQAGANの重要な新規性は、ジェネレータの注入されたQAMにある。
提案手法は客観的評価と主観評価の両方において良好な性能を実現する。
論文 参考訳(メタデータ) (2020-12-30T05:57:20Z) - No-reference Screen Content Image Quality Assessment with Unsupervised
Domain Adaptation [37.1611601418026]
我々は、SCIのための参照品質評価法を初めて未監視領域適応に基づいて開発する。
ペアワイズ関係の伝達可能性に触発されて、提案した品質尺度は、伝達可能性と識別可能性を同時に改善する思想に基づいて機能する。
提案手法は,軽量畳み込みニューラルネットワークに基づいて,異なるソースターゲット設定で高い性能を実現することができる。
論文 参考訳(メタデータ) (2020-08-19T17:31:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。