論文の概要: Active Fine-Tuning from gMAD Examples Improves Blind Image Quality
Assessment
- arxiv url: http://arxiv.org/abs/2003.03849v2
- Date: Thu, 8 Apr 2021 10:45:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 14:44:10.364626
- Title: Active Fine-Tuning from gMAD Examples Improves Blind Image Quality
Assessment
- Title(参考訳): gMADによる能動微調整によるブラインド画像品質評価の改善
- Authors: Zhihua Wang and Kede Ma
- Abstract要約: 我々は,gMADの例をブラインドIQA法(BIQA法)の改善に利用できることを示す。
具体的には、まず、複数のノイズアノテータを用いたDNNベースのBIQAモデルを事前訓練する。
次に、ベースラインモデルとgMADの完全な参照IQA手法のセットを比較して、画像のペアを求める。
- 参考スコア(独自算出の注目度): 29.196117743753813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The research in image quality assessment (IQA) has a long history, and
significant progress has been made by leveraging recent advances in deep neural
networks (DNNs). Despite high correlation numbers on existing IQA datasets,
DNN-based models may be easily falsified in the group maximum differentiation
(gMAD) competition with strong counterexamples being identified. Here we show
that gMAD examples can be used to improve blind IQA (BIQA) methods.
Specifically, we first pre-train a DNN-based BIQA model using multiple noisy
annotators, and fine-tune it on multiple subject-rated databases of
synthetically distorted images, resulting in a top-performing baseline model.
We then seek pairs of images by comparing the baseline model with a set of
full-reference IQA methods in gMAD. The resulting gMAD examples are most likely
to reveal the relative weaknesses of the baseline, and suggest potential ways
for refinement. We query ground truth quality annotations for the selected
images in a well controlled laboratory environment, and further fine-tune the
baseline on the combination of human-rated images from gMAD and existing
databases. This process may be iterated, enabling active and progressive
fine-tuning from gMAD examples for BIQA. We demonstrate the feasibility of our
active learning scheme on a large-scale unlabeled image set, and show that the
fine-tuned method achieves improved generalizability in gMAD, without
destroying performance on previously trained databases.
- Abstract(参考訳): 画像品質評価(IQA)の研究は長い歴史を持ち、近年のディープニューラルネットワーク(DNN)の進歩を活用して大きな進歩を遂げている。
既存のIQAデータセットに高い相関数があるにもかかわらず、DNNベースのモデルは、強力な反例が特定されるグループ最大微分(gMAD)競合において容易にファルシファイドされる。
ここでは、gMADの例をブラインドIQA(BIQA)法の改善に利用できることを示す。
具体的には、まず複数のノイズアノテータを用いてDNNベースのBIQAモデルを事前訓練し、合成歪み画像の複数の主観評価データベース上で微調整し、最高性能のベースラインモデルを作成する。
次に、ベースラインモデルとgMADの完全な参照IQA手法のセットを比較して画像のペアを求める。
結果として得られたgMADの例は、ベースラインの相対的な弱点を明らかにし、改善の可能性を示唆している。
実験室環境において,選択した画像に対して,地上の真偽のアノテーションをクエリし,さらに,gMADと既存のデータベースからの人文評価画像の組み合わせに基づいて,ベースラインを微調整する。
このプロセスは反復され、BIQAのgMAD例からアクティブでプログレッシブな微調整を可能にする。
大規模未ラベル画像集合上での能動学習方式の有効性を実証し,従来訓練されていたデータベースの性能を損なうことなく,細調整によりgMADの一般化性を向上させることを示す。
関連論文リスト
- Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents [99.19391983670569]
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Depicting Beyond Scores: Advancing Image Quality Assessment through Multi-modal Language Models [28.194638379354252]
本稿では,従来のスコアベース手法の制約を克服するDepicted Image Quality Assessment法(DepictQA)を提案する。
DepictQAは、マルチモーダルな大規模言語モデルを利用することで、詳細な言語ベースの人間のような画像品質の評価を可能にする。
これらの結果はマルチモーダルIQA法の研究の可能性を示している。
論文 参考訳(メタデータ) (2023-12-14T14:10:02Z) - Deep Neural Networks for Blind Image Quality Assessment: Addressing the
Data Challenge [20.97986692607478]
主観的テストの制約により、数百万の画像からなる人格分類IQAデータセットを作成することは困難である。
EONSSと呼ばれるDNNベースのBIQAモデルを構築し、Waterloo Exploration-IIでトレーニングし、9つの主観評価IQAデータセット上でテストする。
論文 参考訳(メタデータ) (2021-09-24T19:48:52Z) - Troubleshooting Blind Image Quality Models in the Wild [99.96661607178677]
グループ最大分化競争(gMAD)は、盲目の画像品質評価(BIQA)モデルを改善するために使用されます。
対象モデルのprunedバージョンのランダムアンサンブルを改善するため、"self-competitors"のセットを構築します。
様々な障害は、自己gMADコンペティションを通じて効率的に識別できる。
論文 参考訳(メタデータ) (2021-05-14T10:10:48Z) - Continual Learning for Blind Image Quality Assessment [80.55119990128419]
ブラインド画像品質評価(BIQA)モデルは、サブポピュレーションシフトに継続的に適応できない。
最近の研究では、利用可能なすべての人間評価のIQAデータセットの組み合わせに関するBIQAメソッドのトレーニングが推奨されている。
モデルがIQAデータセットのストリームから継続的に学習するBIQAの継続的学習を策定する。
論文 参考訳(メタデータ) (2021-02-19T03:07:01Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z) - MetaIQA: Deep Meta-learning for No-Reference Image Quality Assessment [73.55944459902041]
本稿では,深層メタラーニングに基づく非参照IQA尺度を提案する。
まず、様々な歪みに対してNR-IQAタスクを収集する。
次にメタラーニングを用いて、多彩な歪みによって共有される事前知識を学習する。
大規模な実験により、提案された計量は最先端の技術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-04-11T23:36:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。