論文の概要: Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild
- arxiv url: http://arxiv.org/abs/2005.13983v6
- Date: Tue, 23 Feb 2021 09:45:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 05:03:35.584902
- Title: Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild
- Title(参考訳): 実験室と野生における不確かさを意識したブラインド画像品質評価
- Authors: Weixia Zhang and Kede Ma and Guangtao Zhai and Xiaokang Yang
- Abstract要約: 我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
- 参考スコア(独自算出の注目度): 98.48284827503409
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Performance of blind image quality assessment (BIQA) models has been
significantly boosted by end-to-end optimization of feature engineering and
quality regression. Nevertheless, due to the distributional shift between
images simulated in the laboratory and captured in the wild, models trained on
databases with synthetic distortions remain particularly weak at handling
realistic distortions (and vice versa). To confront the
cross-distortion-scenario challenge, we develop a \textit{unified} BIQA model
and an approach of training it for both synthetic and realistic distortions. We
first sample pairs of images from individual IQA databases, and compute a
probability that the first image of each pair is of higher quality. We then
employ the fidelity loss to optimize a deep neural network for BIQA over a
large number of such image pairs. We also explicitly enforce a hinge constraint
to regularize uncertainty estimation during optimization. Extensive experiments
on six IQA databases show the promise of the learned method in blindly
assessing image quality in the laboratory and wild. In addition, we demonstrate
the universality of the proposed training strategy by using it to improve
existing BIQA models.
- Abstract(参考訳): ブラインド画像品質評価(BIQA)モデルの性能は、特徴工学と品質回帰のエンドツーエンド最適化によって大幅に向上した。
しかし、実験室でシミュレートされた画像と野生で撮影される画像の分布の変化により、合成歪みのあるデータベースで訓練されたモデルは、現実的な歪みを扱うのに特に弱い(逆もまた)。
クロス・ディストリション・scenarioの課題に直面するために,BIQAモデルと,それを合成的および現実的な歪みの両方で訓練するアプローチを開発する。
まず、個々のIQAデータベースから画像のペアをサンプリングし、各ペアの最初の画像が高品質である確率を計算する。
次に、多数の画像対に対してBIQAのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
また、最適化中に不確実性推定を規則化するヒンジ制約を明示的に実施する。
6つのIQAデータベースに対する大規模な実験は、実験室と野生動物の画像品質を盲目的に評価する学習手法の可能性を示唆している。
さらに、既存のBIQAモデルを改善するために、提案したトレーニング戦略の普遍性を実証する。
関連論文リスト
- Comparison of No-Reference Image Quality Models via MAP Estimation in
Diffusion Latents [99.19391983670569]
NR-IQAモデルは、画像強調のための最大後部推定(MAP)フレームワークにプラグイン可能であることを示す。
異なるNR-IQAモデルは異なる拡張イメージを誘導し、最終的には精神物理学的なテストを受ける。
これにより, NR-IQAモデルの比較を行う新たな計算手法が提案される。
論文 参考訳(メタデータ) (2024-03-11T03:35:41Z) - Black-box Adversarial Attacks Against Image Quality Assessment Models [16.11900427447442]
No-Reference Image Quality Assessment (NR-IQA)の目標は、画像の知覚的品質を主観的評価に従って予測することである。
本稿では,NR-IQAモデルに対するブラックボックス攻撃を初めて検討する。
論文 参考訳(メタデータ) (2024-02-27T14:16:39Z) - A Lightweight Parallel Framework for Blind Image Quality Assessment [7.9562077122537875]
ブラインド画像品質評価(BIQA)のための軽量並列フレームワーク(LPF)を提案する。
まず,事前学習した特徴抽出ネットワークを用いて視覚特徴を抽出し,視覚特徴を変換するための簡易で効果的な特徴埋め込みネットワーク(FEN)を構築した。
本稿では,サンプルレベルのカテゴリ予測タスクとバッチレベルの品質比較タスクを含む,新たな2つのサブタスクを提案する。
論文 参考訳(メタデータ) (2024-02-19T10:56:58Z) - DifFIQA: Face Image Quality Assessment Using Denoising Diffusion
Probabilistic Models [1.217503190366097]
顔画像品質評価(FIQA)技術は、これらの性能劣化を軽減することを目的としている。
拡散確率モデル(DDPM)に基づく強力な新しいFIQA手法DifFIQAを提案する。
拡散に基づく摂動は計算コストが高いため、DifFIQA(R)と呼ばれる回帰ベースの品質予測器にDifFIQAで符号化された知識を蒸留する。
論文 参考訳(メタデータ) (2023-05-09T21:03:13Z) - Quality-aware Pre-trained Models for Blind Image Quality Assessment [15.566552014530938]
ブラインド画像品質評価(BIQA)は,画像の知覚品質を自動的に評価することを目的としている。
本稿では,BIQA用にカスタマイズされたプレテキストタスクを用いて,自己教師型学習方式でこの問題を解決することを提案する。
論文 参考訳(メタデータ) (2023-03-01T13:52:40Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Task-Specific Normalization for Continual Learning of Blind Image
Quality Models [105.03239956378465]
視覚的画像品質評価(BIQA)のための簡易かつ効果的な連続学習法を提案する。
このアプローチの重要なステップは、トレーニング済みのディープニューラルネットワーク(DNN)のすべての畳み込みフィルタを凍結して、安定性を明示的に保証することです。
我々は、各新しいIQAデータセット(タスク)に予測ヘッドを割り当て、対応する正規化パラメータをロードして品質スコアを生成する。
最終的な品質推定は、軽量な$K$-meansゲーティング機構で、すべての頭からの予測の重み付け総和によって計算される。
論文 参考訳(メタデータ) (2021-07-28T15:21:01Z) - Continual Learning for Blind Image Quality Assessment [80.55119990128419]
ブラインド画像品質評価(BIQA)モデルは、サブポピュレーションシフトに継続的に適応できない。
最近の研究では、利用可能なすべての人間評価のIQAデータセットの組み合わせに関するBIQAメソッドのトレーニングが推奨されている。
モデルがIQAデータセットのストリームから継続的に学習するBIQAの継続的学習を策定する。
論文 参考訳(メタデータ) (2021-02-19T03:07:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。