論文の概要: Norm-in-Norm Loss with Faster Convergence and Better Performance for
Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2008.03889v1
- Date: Mon, 10 Aug 2020 04:01:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 23:41:04.531742
- Title: Norm-in-Norm Loss with Faster Convergence and Better Performance for
Image Quality Assessment
- Title(参考訳): より高速な収束と画質評価性能を有するノルム内損失
- Authors: Dingquan Li, Tingting Jiang and Ming Jiang
- Abstract要約: 画像品質評価(IQA)モデルにおける損失関数の設計における正規化について検討する。
結果として生じるNorm-in-Normの損失は、主観的品質スコアに対する線形予測をIQAモデルに促す。
2つの関連するデータセットの実験では、MAEやMSEの損失と比較して、新しい損失はIQAモデルを約10倍の速度で収束させることが示されている。
- 参考スコア(独自算出の注目度): 20.288424566444224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Currently, most image quality assessment (IQA) models are supervised by the
MAE or MSE loss with empirically slow convergence. It is well-known that
normalization can facilitate fast convergence. Therefore, we explore
normalization in the design of loss functions for IQA. Specifically, we first
normalize the predicted quality scores and the corresponding subjective quality
scores. Then, the loss is defined based on the norm of the differences between
these normalized values. The resulting "Norm-in-Norm'' loss encourages the IQA
model to make linear predictions with respect to subjective quality scores.
After training, the least squares regression is applied to determine the linear
mapping from the predicted quality to the subjective quality. It is shown that
the new loss is closely connected with two common IQA performance criteria
(PLCC and RMSE). Through theoretical analysis, it is proved that the embedded
normalization makes the gradients of the loss function more stable and more
predictable, which is conducive to the faster convergence of the IQA model.
Furthermore, to experimentally verify the effectiveness of the proposed loss,
it is applied to solve a challenging problem: quality assessment of in-the-wild
images. Experiments on two relevant datasets (KonIQ-10k and CLIVE) show that,
compared to MAE or MSE loss, the new loss enables the IQA model to converge
about 10 times faster and the final model achieves better performance. The
proposed model also achieves state-of-the-art prediction performance on this
challenging problem. For reproducible scientific research, our code is publicly
available at https://github.com/lidq92/LinearityIQA.
- Abstract(参考訳): 現在、ほとんどの画像品質評価(IQA)モデルは、経験的に遅い収束を伴うMAEまたはMSE損失によって制御されている。
正規化が高速収束を促進することはよく知られている。
そこで本研究では,IQAの損失関数設計における正規化について検討する。
具体的には,まず予測品質スコアと対応する主観的品質スコアを正規化する。
そして、これらの正規化値間の差のノルムに基づいて損失を定義する。
結果として生じるNorm-in-Normの損失は、主観的品質スコアに対する線形予測をIQAモデルに促す。
トレーニング後、予測品質から主観的品質への線形写像を決定するために最小二乗回帰を適用した。
新たな損失は2つの一般的なIQA性能基準(PLCCとRMSE)と密接に関連している。
理論的解析により、埋め込み正規化により損失関数の勾配がより安定かつ予測可能となり、iqaモデルのより高速な収束をもたらすことが証明された。
さらに,提案した損失の有効性を実験的に検証するために,Wild画像の品質評価という課題を解決した。
関連する2つのデータセット(koniq-10kとclive)の実験では、maeやmseの損失と比較して、新しい損失により、iqaモデルの収束速度が約10倍向上し、最終的なモデルのパフォーマンスが向上している。
提案モデルはまた,この課題に対して最先端の予測性能を実現する。
再現可能な科学的研究のために、コードはhttps://github.com/lidq92/linearityiqaで公開されています。
関連論文リスト
- Boosting CLIP Adaptation for Image Quality Assessment via Meta-Prompt Learning and Gradient Regularization [55.09893295671917]
本稿では,Gdient-Regulated Meta-Prompt IQA Framework (GRMP-IQA)を紹介する。
GRMP-IQAはMeta-Prompt事前学習モジュールとQuality-Aware Gradient Regularizationの2つの主要なモジュールから構成されている。
5つの標準BIQAデータセットの実験は、限られたデータ設定下での最先端BIQA手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-09T07:26:21Z) - DP-IQA: Utilizing Diffusion Prior for Blind Image Quality Assessment in the Wild [54.139923409101044]
野生のブラインド画像品質評価(IQA)は重大な課題を呈している。
大規模なトレーニングデータの収集が困難であることを考えると、厳密な一般化モデルを開発するために限られたデータを活用することは、未解決の問題である。
事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルの堅牢な画像認識能力により,新しいIQA法,拡散先行に基づくIQAを提案する。
論文 参考訳(メタデータ) (2024-05-30T12:32:35Z) - DifFIQA: Face Image Quality Assessment Using Denoising Diffusion
Probabilistic Models [1.217503190366097]
顔画像品質評価(FIQA)技術は、これらの性能劣化を軽減することを目的としている。
拡散確率モデル(DDPM)に基づく強力な新しいFIQA手法DifFIQAを提案する。
拡散に基づく摂動は計算コストが高いため、DifFIQA(R)と呼ばれる回帰ベースの品質予測器にDifFIQAで符号化された知識を蒸留する。
論文 参考訳(メタデータ) (2023-05-09T21:03:13Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Degraded Reference Image Quality Assessment [23.871178105179883]
劣化参照IQA(DR IQA)と呼ばれる新しいパラダイムの確立に向けた最初の試みの1つを行う。
具体的には、DR IQAのアーキテクチャをレイアウトし、構成の選択を示す6ビットコードを導入する。
DR IQA専用の最初の大規模データベースを構築し,公開する。
論文 参考訳(メタデータ) (2021-10-28T05:50:59Z) - Task-Specific Normalization for Continual Learning of Blind Image
Quality Models [105.03239956378465]
視覚的画像品質評価(BIQA)のための簡易かつ効果的な連続学習法を提案する。
このアプローチの重要なステップは、トレーニング済みのディープニューラルネットワーク(DNN)のすべての畳み込みフィルタを凍結して、安定性を明示的に保証することです。
我々は、各新しいIQAデータセット(タスク)に予測ヘッドを割り当て、対応する正規化パラメータをロードして品質スコアを生成する。
最終的な品質推定は、軽量な$K$-meansゲーティング機構で、すべての頭からの予測の重み付け総和によって計算される。
論文 参考訳(メタデータ) (2021-07-28T15:21:01Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z) - MetaIQA: Deep Meta-learning for No-Reference Image Quality Assessment [73.55944459902041]
本稿では,深層メタラーニングに基づく非参照IQA尺度を提案する。
まず、様々な歪みに対してNR-IQAタスクを収集する。
次にメタラーニングを用いて、多彩な歪みによって共有される事前知識を学習する。
大規模な実験により、提案された計量は最先端の技術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-04-11T23:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。