論文の概要: A Lightweight Parallel Framework for Blind Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2402.12043v1
- Date: Mon, 19 Feb 2024 10:56:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 16:49:29.955840
- Title: A Lightweight Parallel Framework for Blind Image Quality Assessment
- Title(参考訳): ブラインド画像品質評価のための軽量並列フレームワーク
- Authors: Qunyue Huang, Bin Fang
- Abstract要約: ブラインド画像品質評価(BIQA)のための軽量並列フレームワーク(LPF)を提案する。
まず,事前学習した特徴抽出ネットワークを用いて視覚特徴を抽出し,視覚特徴を変換するための簡易で効果的な特徴埋め込みネットワーク(FEN)を構築した。
本稿では,サンプルレベルのカテゴリ予測タスクとバッチレベルの品質比較タスクを含む,新たな2つのサブタスクを提案する。
- 参考スコア(独自算出の注目度): 7.9562077122537875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing blind image quality assessment (BIQA) methods focus on designing
complicated networks based on convolutional neural networks (CNNs) or
transformer. In addition, some BIQA methods enhance the performance of the
model in a two-stage training manner. Despite the significant advancements,
these methods remarkably raise the parameter count of the model, thus requiring
more training time and computational resources. To tackle the above issues, we
propose a lightweight parallel framework (LPF) for BIQA. First, we extract the
visual features using a pre-trained feature extraction network. Furthermore, we
construct a simple yet effective feature embedding network (FEN) to transform
the visual features, aiming to generate the latent representations that contain
salient distortion information. To improve the robustness of the latent
representations, we present two novel self-supervised subtasks, including a
sample-level category prediction task and a batch-level quality comparison
task. The sample-level category prediction task is presented to help the model
with coarse-grained distortion perception. The batch-level quality comparison
task is formulated to enhance the training data and thus improve the robustness
of the latent representations. Finally, the latent representations are fed into
a distortion-aware quality regression network (DaQRN), which simulates the
human vision system (HVS) and thus generates accurate quality scores.
Experimental results on multiple benchmark datasets demonstrate that the
proposed method achieves superior performance over state-of-the-art approaches.
Moreover, extensive analyses prove that the proposed method has lower
computational complexity and faster convergence speed.
- Abstract(参考訳): 既存のブラインド画像品質評価(BIQA)手法は、畳み込みニューラルネットワーク(CNN)やトランスフォーマーに基づく複雑なネットワークの設計に重点を置いている。
さらに、いくつかのBIQA手法は、2段階の訓練方法でモデルの性能を向上させる。
大幅な進歩にもかかわらず、これらの手法はモデルのパラメータ数を著しく増加させ、より多くのトレーニング時間と計算資源を必要とする。
上記の問題に対処するため,BIQAのための軽量並列フレームワーク (LPF) を提案する。
まず,事前学習した特徴抽出ネットワークを用いて視覚特徴を抽出する。
さらに、視覚的特徴を変換するための簡易で効果的な特徴埋め込みネットワーク(FEN)を構築し、顕著な歪み情報を含む潜在表現を生成する。
潜在表現のロバスト性を改善するために,サンプルレベルのカテゴリ予測タスクとバッチレベルの品質比較タスクを含む2つの新しい自己教師付きサブタスクを提案する。
粗粒度歪み知覚を有するモデルを支援するためにサンプルレベルカテゴリ予測タスクを提案する。
バッチレベルの品質比較タスクを定式化し、トレーニングデータを強化し、潜在表現のロバスト性を向上させる。
最後に、遅延表現を歪み認識品質回帰ネットワーク(DaQRN)に入力し、人間の視覚システム(HVS)をシミュレートし、正確な品質スコアを生成する。
複数のベンチマークデータセットに対する実験結果から,提案手法は最先端手法よりも優れた性能を示すことが示された。
さらに,提案手法は計算複雑性が低く,収束速度が速いことを示す。
関連論文リスト
- Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - GraFIQs: Face Image Quality Assessment Using Gradient Magnitudes [9.170455788675836]
顔画像品質評価(FIQA)は、顔認識(FR)システムにおける顔画像の有用性を推定する。
本研究では,事前学習したFRモデルの重量変化を検査し,顔画像の品質を評価する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-18T14:07:08Z) - Contrastive Pre-Training with Multi-View Fusion for No-Reference Point Cloud Quality Assessment [49.36799270585947]
No-Reference Point Cloud Quality Assessment (NR-PCQA) は、歪んだ点雲の知覚的品質を、参照なしで自動的に評価することを目的としている。
我々は,PCQA(CoPA)に適した新しいコントラスト付き事前学習フレームワークを提案する。
提案手法は,最新のPCQA手法よりも高い性能を示す。
論文 参考訳(メタデータ) (2024-03-15T07:16:07Z) - Test Time Adaptation for Blind Image Quality Assessment [20.50795362928567]
本報告では, ブラインドIQAにおけるTTAを実現するために, バッチとサンプルレベルに2つの新しい品質関連補助タスクを導入する。
実験の結果,テスト分布から少量の画像を使用しても,性能の大幅な向上が期待できることがわかった。
論文 参考訳(メタデータ) (2023-07-27T09:43:06Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - A Practical Contrastive Learning Framework for Single-Image
Super-Resolution [51.422185656787285]
コントラスト学習に基づく単一画像の超解像を2つの視点から検討する。
SISR のための実践的コントラスト学習フレームワーク PCL-SR を提案する。
既存のベンチマーク手法と比較して,提案手法をPCL-SRフレームワークで再学習し,優れた性能を実現する。
論文 参考訳(メタデータ) (2021-11-27T15:42:12Z) - Task-Specific Normalization for Continual Learning of Blind Image
Quality Models [105.03239956378465]
視覚的画像品質評価(BIQA)のための簡易かつ効果的な連続学習法を提案する。
このアプローチの重要なステップは、トレーニング済みのディープニューラルネットワーク(DNN)のすべての畳み込みフィルタを凍結して、安定性を明示的に保証することです。
我々は、各新しいIQAデータセット(タスク)に予測ヘッドを割り当て、対応する正規化パラメータをロードして品質スコアを生成する。
最終的な品質推定は、軽量な$K$-meansゲーティング機構で、すべての頭からの予測の重み付け総和によって計算される。
論文 参考訳(メタデータ) (2021-07-28T15:21:01Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。