論文の概要: Deep Superpixel-based Network for Blind Image Quality Assessment
- arxiv url: http://arxiv.org/abs/2110.06564v1
- Date: Wed, 13 Oct 2021 08:26:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 14:07:29.661224
- Title: Deep Superpixel-based Network for Blind Image Quality Assessment
- Title(参考訳): ブラインド画像品質評価のためのディープスーパーピクセルベースネットワーク
- Authors: Guangyi Yang, Yang Zhan. and Yuxuan Wang
- Abstract要約: ブラインド画像品質評価(BIQA)モデルの目標は、人間の目で画像を評価する過程をシミュレートすることである。
マルチスケールおよびスーパーピクセルセグメンテーションに基づいて画像の画質を評価するために, DSN-IQA という深層適応型スーパーピクセルベースネットワークを提案する。
- 参考スコア(独自算出の注目度): 4.079861933099766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal in a blind image quality assessment (BIQA) model is to simulate the
process of evaluating images by human eyes and accurately assess the quality of
the image. Although many approaches effectively identify degradation, they do
not fully consider the semantic content in images resulting in distortion. In
order to fill this gap, we propose a deep adaptive superpixel-based network,
namely DSN-IQA, to assess the quality of image based on multi-scale and
superpixel segmentation. The DSN-IQA can adaptively accept arbitrary scale
images as input images, making the assessment process similar to human
perception. The network uses two models to extract multi-scale semantic
features and generate a superpixel adjacency map. These two elements are united
together via feature fusion to accurately predict image quality. Experimental
results on different benchmark databases demonstrate that our algorithm is
highly competitive with other approaches when assessing challenging authentic
image databases. Also, due to adaptive deep superpixel-based network, our model
accurately assesses images with complicated distortion, much like the human
eye.
- Abstract(参考訳): 盲眼画像品質評価(biqa)モデルの目標は、人間の目による画像の評価過程をシミュレートし、画像の品質を正確に評価することである。
多くのアプローチは劣化を効果的に識別するが、画像の意味的内容を完全に考慮していない。
このギャップを埋めるため,マルチスケールおよびスーパーピクセルセグメンテーションに基づく画像の品質評価を行うために,DSN-IQAという適応型スーパーピクセルネットワークを提案する。
DSN-IQAは、任意のスケール画像を入力画像として適応的に受け入れ、人間の知覚に類似した評価プロセスを作成する。
このネットワークは2つのモデルを用いて、マルチスケールのセマンティックな特徴を抽出し、スーパーピクセルの隣接マップを生成する。
これら2つの要素は機能融合によって結合され、画質を正確に予測する。
異なるベンチマークデータベースを用いた実験結果から,本アルゴリズムは他の手法と高い競争力を持つことを示す。
また,適応的な深部画素ネットワークにより,人間の目と同様の複雑な歪みで画像を正確に評価する。
関連論文リスト
- Q-Ground: Image Quality Grounding with Large Multi-modality Models [61.72022069880346]
Q-Groundは、大規模な視覚的品質グラウンドに取り組むための最初のフレームワークである。
Q-Groundは、大規模なマルチモダリティモデルと詳細な視覚的品質分析を組み合わせる。
コントリビューションの中心は、QGround-100Kデータセットの導入です。
論文 参考訳(メタデータ) (2024-07-24T06:42:46Z) - Dual-Branch Network for Portrait Image Quality Assessment [76.27716058987251]
ポートレート画像品質評価のためのデュアルブランチネットワーク(PIQA)を提案する。
我々は2つのバックボーンネットワーク(textiti.e., Swin Transformer-B)を使用して、肖像画全体と顔画像から高品質な特徴を抽出する。
我々は、画像シーンの分類と品質評価モデルであるLIQEを利用して、品質認識とシーン固有の特徴を補助的特徴として捉えている。
論文 参考訳(メタデータ) (2024-05-14T12:43:43Z) - ARNIQA: Learning Distortion Manifold for Image Quality Assessment [28.773037051085318]
No-Reference Image Quality Assessment (NR-IQA) は、高品質な参照画像を必要としない、人間の知覚に合わせて画像品質を測定する手法を開発することを目的としている。
本研究では、画像歪み多様体をモデル化し、本質的な表現を得るための自己教師型アプローチ ARNIQA を提案する。
論文 参考訳(メタデータ) (2023-10-20T17:22:25Z) - Assessor360: Multi-sequence Network for Blind Omnidirectional Image
Quality Assessment [50.82681686110528]
Blind Omnidirectional Image Quality Assessment (BOIQA)は、全方位画像(ODI)の人間の知覚品質を客観的に評価することを目的としている。
ODIの品質評価は、既存のBOIQAパイプラインがオブザーバのブラウジングプロセスのモデリングを欠いているという事実によって著しく妨げられている。
Assessor360と呼ばれるBOIQAのための新しいマルチシーケンスネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:55:28Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - MUSIQ: Multi-scale Image Quality Transformer [22.908901641767688]
現在のIQA法は畳み込みニューラルネットワーク(CNN)に基づいている
マルチスケール画像品質変換器(MUSIQ)を設計し,サイズやアスペクト比の異なるネイティブ解像度画像を処理する。
提案手法は,マルチスケールの画像表現により,様々な粒度で画像品質を捉えることができる。
論文 参考訳(メタデータ) (2021-08-12T23:36:22Z) - Compound Frechet Inception Distance for Quality Assessment of GAN
Created Images [7.628527132779575]
GANの注目すべき応用の1つは、ディープフェイク(deep fakes)として知られる偽の人間の顔を開発することである。
生成された画像の品質を測定することは本質的に主観的だが、標準化されたメトリクスを使って品質を客観化しようとする試みがなされている。
我々は,より広い視覚的欠陥をカバーするために,低レベルの特徴を統合することにより,評価プロセスの堅牢性を向上させることを提案する。
論文 参考訳(メタデータ) (2021-06-16T06:53:27Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Deep Multi-Scale Features Learning for Distorted Image Quality
Assessment [20.7146855562825]
既存のディープニューラルネットワーク(DNN)はIQA問題に対処する上で大きな効果を示している。
画像品質予測のための階層的マルチスケール特徴を持つDNNを構築するためにピラミッド特徴学習を提案する。
提案するネットワークは、エンド・ツー・エンドの監視方法に最適化されている。
論文 参考訳(メタデータ) (2020-12-01T23:39:01Z) - Uncertainty-Aware Blind Image Quality Assessment in the Laboratory and
Wild [98.48284827503409]
我々は,テキスト化BIQAモデルを開発し,それを合成的および現実的歪みの両方で訓練するアプローチを提案する。
我々は、多数の画像ペアに対してBIQAのためのディープニューラルネットワークを最適化するために、忠実度損失を用いる。
6つのIQAデータベースの実験は、実験室と野生動物における画像品質を盲目的に評価する学習手法の可能性を示唆している。
論文 参考訳(メタデータ) (2020-05-28T13:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。