論文の概要: MSTRIQ: No Reference Image Quality Assessment Based on Swin Transformer
with Multi-Stage Fusion
- arxiv url: http://arxiv.org/abs/2205.10101v2
- Date: Mon, 23 May 2022 06:39:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 12:00:00.496826
- Title: MSTRIQ: No Reference Image Quality Assessment Based on Swin Transformer
with Multi-Stage Fusion
- Title(参考訳): MSTRIQ:マルチステージ融合によるスウィントランスによる画像品質評価
- Authors: Jing Wang, Haotian Fan, Xiaoxia Hou, Yitian Xu, Tao Li, Xuechao Lu and
Lean Fu
- Abstract要約: 本稿では,Swin Transformerに基づく新しいアルゴリズムを提案する。
ローカル機能とグローバル機能の両方から情報を集約して、品質をより正確に予測する。
NTIRE 2022 Perceptual Image Quality Assessment Challengeのノーレファレンストラックで2位。
- 参考スコア(独自算出の注目度): 8.338999282303755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Measuring the perceptual quality of images automatically is an essential task
in the area of computer vision, as degradations on image quality can exist in
many processes from image acquisition, transmission to enhancing. Many Image
Quality Assessment(IQA) algorithms have been designed to tackle this problem.
However, it still remains un settled due to the various types of image
distortions and the lack of large-scale human-rated datasets. In this paper, we
propose a novel algorithm based on the Swin Transformer [31] with fused
features from multiple stages, which aggregates information from both local and
global features to better predict the quality. To address the issues of
small-scale datasets, relative rankings of images have been taken into account
together with regression loss to simultaneously optimize the model.
Furthermore, effective data augmentation strategies are also used to improve
the performance. In comparisons with previous works, experiments are carried
out on two standard IQA datasets and a challenge dataset. The results
demonstrate the effectiveness of our work. The proposed method outperforms
other methods on standard datasets and ranks 2nd in the no-reference track of
NTIRE 2022 Perceptual Image Quality Assessment Challenge [53]. It verifies that
our method is promising in solving diverse IQA problems and thus can be used to
real-word applications.
- Abstract(参考訳): 画像の知覚品質を自動測定することは、画像の取得、送信、拡張に至るまで、多くのプロセスに画質の劣化が存在するため、コンピュータビジョン領域において必須の課題である。
多くの画像品質評価(IQA)アルゴリズムがこの問題に対処するために設計されている。
しかし、様々な種類の画像歪みと大規模な人格データセットの欠如により、未だに解決されていない。
本稿では,複数の段階から融合した特徴を持つSwin Transformer [31]に基づく新しいアルゴリズムを提案する。
小規模なデータセットの問題に対処するため、画像の相対的ランク付けと回帰損失を考慮し、モデルを同時に最適化した。
さらに、パフォーマンスを向上させるために効果的なデータ拡張戦略も使用されている。
従来の研究と比較すると、2つの標準IQAデータセットとチャレンジデータセットで実験が行われる。
結果は我々の仕事の有効性を示しています。
提案手法は,NTIRE 2022 Perceptual Image Quality Assessment Challenge[53]の非参照トラックにおいて,標準データセットの他の手法よりも優れ,第2位である。
この手法は, 多様な iqa 問題を解決する上で有望であり, リアルワードアプリケーションに適用可能であることを検証している。
関連論文リスト
- Q-Ground: Image Quality Grounding with Large Multi-modality Models [61.72022069880346]
Q-Groundは、大規模な視覚的品質グラウンドに取り組むための最初のフレームワークである。
Q-Groundは、大規模なマルチモダリティモデルと詳細な視覚的品質分析を組み合わせる。
コントリビューションの中心は、QGround-100Kデータセットの導入です。
論文 参考訳(メタデータ) (2024-07-24T06:42:46Z) - Descriptive Image Quality Assessment in the Wild [25.503311093471076]
VLMに基づく画像品質評価(IQA)は、画像品質を言語的に記述し、人間の表現に合わせることを目指している。
野生における画像品質評価(DepictQA-Wild)について紹介する。
本手法は,評価タスクと比較タスク,簡潔かつ詳細な応答,完全参照,非参照シナリオを含む多機能IQAタスクパラダイムを含む。
論文 参考訳(メタデータ) (2024-05-29T07:49:15Z) - Dual-Branch Network for Portrait Image Quality Assessment [76.27716058987251]
ポートレート画像品質評価のためのデュアルブランチネットワーク(PIQA)を提案する。
我々は2つのバックボーンネットワーク(textiti.e., Swin Transformer-B)を使用して、肖像画全体と顔画像から高品質な特徴を抽出する。
我々は、画像シーンの分類と品質評価モデルであるLIQEを利用して、品質認識とシーン固有の特徴を補助的特徴として捉えている。
論文 参考訳(メタデータ) (2024-05-14T12:43:43Z) - Learning Generalizable Perceptual Representations for Data-Efficient
No-Reference Image Quality Assessment [7.291687946822539]
最先端のNR-IQA技術の大きな欠点は、多数の人間のアノテーションに依存していることである。
低レベルな特徴の学習を、新しい品質に配慮したコントラスト損失を導入することで、歪みタイプの学習を可能にする。
両経路からゼロショット品質の予測を、完全に盲目な環境で設計する。
論文 参考訳(メタデータ) (2023-12-08T05:24:21Z) - Helping Visually Impaired People Take Better Quality Pictures [52.03016269364854]
我々は、視覚障害者が共通の技術的歪みの発生を最小限に抑えるためのツールを開発する。
また、ユーザによる品質問題の緩和を支援する、プロトタイプのフィードバックシステムも作成しています。
論文 参考訳(メタデータ) (2023-05-14T04:37:53Z) - Re-IQA: Unsupervised Learning for Image Quality Assessment in the Wild [38.197794061203055]
教師なし環境で高レベルのコンテンツと低レベルの画像品質特徴を学習するために、2つの異なるエンコーダを訓練するためのMixture of Expertsアプローチを提案する。
本稿では,Re-IQAフレームワークから得られた高次・低次画像表現を,線形回帰モデルをトレーニングするために展開する。
本手法は,大規模画像品質評価データベース上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-04-02T05:06:51Z) - Multi-Scale Features and Parallel Transformers Based Image Quality
Assessment [0.6554326244334866]
変換器ネットワークとマルチスケール特徴抽出を用いた画像品質評価のための新しいアーキテクチャを提案する。
PIPALデータセットを含む各種データセットに対する実験により,提案手法が既存のアルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2022-04-20T20:38:23Z) - Learning Transformer Features for Image Quality Assessment [53.51379676690971]
本稿では,CNNバックボーンとトランスフォーマーエンコーダを用いて特徴抽出を行うIQAフレームワークを提案する。
提案するフレームワークはFRモードとNRモードの両方と互換性があり、共同トレーニング方式が可能である。
論文 参考訳(メタデータ) (2021-12-01T13:23:00Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - No-Reference Image Quality Assessment via Feature Fusion and Multi-Task
Learning [29.19484863898778]
ブラインドまたはノン参照画像品質評価(NR-IQA)は基本的な問題であり、未解決であり、難しい問題である。
マルチタスク学習に基づく簡易かつ効果的な汎用的ノンリフレクション(NR)画像品質評価フレームワークを提案する。
このモデルでは、歪み型と主観的な人間のスコアを用いて画質を推定する。
論文 参考訳(メタデータ) (2020-06-06T05:04:10Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。