論文の概要: Frequency-domain Blind Quality Assessment of Blurred and
Blocking-artefact Images using Gaussian Process Regression model
- arxiv url: http://arxiv.org/abs/2303.02753v1
- Date: Sun, 5 Mar 2023 19:20:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 17:58:05.702573
- Title: Frequency-domain Blind Quality Assessment of Blurred and
Blocking-artefact Images using Gaussian Process Regression model
- Title(参考訳): gaussian process regression modelを用いたぼやけた画像およびブロッキングアーティファクト画像の周波数領域ブラインド品質評価
- Authors: Maryam Viqar, Athar A. Moinuddin, Ekram Khan, M. Ghanbari
- Abstract要約: 標準的な画像コーデックやビデオコーデックのほとんどはブロックベースであり、圧縮率によって圧縮された画像やビデオの歪みが異なる。
本稿では,これらの歪みに苦しむ画像の全体的品質を個々に,かつ共同で測定する手法を提案する。
多くの最先端の手法と比較して比較的高速であり、したがってリアルタイムな品質監視アプリケーションに適している。
- 参考スコア(独自算出の注目度): 0.5735035463793008
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Most of the standard image and video codecs are block-based and depending
upon the compression ratio the compressed images/videos suffer from different
distortions. At low ratios, blurriness is observed and as compression increases
blocking artifacts occur. Generally, in order to reduce blockiness, images are
low-pass filtered which leads to more blurriness. Also, in bokeh mode images
they are commonly seen: blurriness as a result of intentional blurred
background while blocking artifact and global blurriness arising due to
compression. Therefore, such visual media suffer from both blockiness and
blurriness distortions. Along with this, noise is also commonly encountered
distortion. Most of the existing works on quality assessment quantify these
distortions individually. This paper proposes a methodology to blindly measure
overall quality of an image suffering from these distortions, individually as
well as jointly. This is achieved by considering the sum of absolute values of
low and high-frequency Discrete Frequency Transform (DFT) coefficients defined
as sum magnitudes. The number of blocks lying in specific ranges of sum
magnitudes including zero-valued AC coefficients and mean of 100 maximum and
100 minimum values of these sum magnitudes are used as feature vectors. These
features are then fed to the Machine Learning (ML) based Gaussian Process
Regression (GPR) model, which quantifies the image quality. The simulation
results show that the proposed method can estimate the quality of images
distorted with the blockiness, blurriness, noise and their combinations. It is
relatively fast compared to many state-of-art methods, and therefore is
suitable for real-time quality monitoring applications.
- Abstract(参考訳): 標準的な画像やビデオコーデックのほとんどはブロックベースであり、圧縮された画像やビデオの圧縮比によって歪みが異なる。
低い割合ではぼやけが観察され、圧縮によってアーティファクトのブロックが増加する。
一般に、遮蔽性を減らすために、画像はローパスフィルタ化され、よりぼやけた状態になる。
また、ボケモード画像では、意図的にぼやけた背景からぼやけたぼやけや、圧縮による大域的なぼやけなど、一般的に見られる。
したがって、このような視覚メディアは、遮蔽とぼやけの歪みの両方に苦しむ。
これに伴い、ノイズは一般に歪みに遭遇する。
品質評価に関する既存の研究の多くは、これらの歪みを個別に定量化している。
本稿では,これらの歪みに苦しむ画像の全体的品質を個別に,かつ共同で測定する手法を提案する。
これは、合計等級として定義される低周波離散周波数変換(DFT)係数の絶対値の和を考えることで達成される。
特徴ベクトルとして、0値の交流係数と、これらの和の最大値100、最小値100を含む特定の和の大きさの範囲に横たわるブロックの数を用いる。
これらの機能は機械学習(ML)ベースのGaussian Process Regression(GPR)モデルに送られ、画質を定量化する。
シミュレーションの結果, ブロック性, ぼかし, ノイズ, それらの組み合わせによって歪んだ画像の品質を推定できることがわかった。
多くの最先端手法と比較して比較的高速で、リアルタイムの品質監視アプリケーションに適している。
関連論文リスト
- Real-World Efficient Blind Motion Deblurring via Blur Pixel Discretization [45.20189929583484]
我々は,デブロアリング(回帰)タスクを,画素の離散化と離散連続変換タスクに分解する。
具体的には,ぼやけた画素を識別して画像残差誤差を生成し,連続的な形状に変換する。
論文 参考訳(メタデータ) (2024-04-18T13:22:56Z) - Deep Generative Model based Rate-Distortion for Image Downscaling Assessment [19.952415887709154]
速度歪み(IDA-RD)による画像ダウンスケーリング評価を提案する。
IDA-RDは画像ダウンスケーリングアルゴリズムを定量的に評価するための新しい尺度である。
論文 参考訳(メタデータ) (2024-03-22T11:48:09Z) - Arbitrary-Scale Image Generation and Upsampling using Latent Diffusion Model and Implicit Neural Decoder [29.924160271522354]
超解像度(SR)と画像生成はコンピュータビジョンにおいて重要なタスクであり、現実世界のアプリケーションで広く採用されている。
しかし、既存のほとんどの手法は、固定スケールの倍率でのみ画像を生成し、過度なスムーシングやアーティファクトに悩まされている。
最も関連する研究は、インプリシット神経表現(INR)をデノナイズ拡散モデルに適用し、連続分解能で多種多様で高品質なSR結果を得た。
任意のスケールで入力画像の超解像やランダムノイズから生成できる新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-15T12:45:40Z) - Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - Learning-Based and Quality Preserving Super-Resolution of Noisy Images [0.0]
本稿では,雑音の存在を考慮し,入力画像の特性を保存する学習手法を提案する。
Cineca Marconi100クラスタ上で、トップ500リストの26位でテストを行います。
論文 参考訳(メタデータ) (2023-11-03T22:00:50Z) - PixelPyramids: Exact Inference Models from Lossless Image Pyramids [58.949070311990916]
Pixel-Pyramidsは、画像画素の関節分布を符号化するスケール特異的表現を用いたブロック自動回帰手法である。
様々な画像データセット、特に高解像度データに対する密度推定の最先端結果が得られる。
CelebA-HQ 1024 x 1024 では,フローベースモデルの並列化よりもサンプリング速度が優れているにもかかわらず,密度推定値がベースラインの 44% に向上することが観察された。
論文 参考訳(メタデータ) (2021-10-17T10:47:29Z) - Low-Light Image Enhancement with Normalizing Flow [92.52290821418778]
本稿では,この一対多の関係を正規化フローモデルを用いてモデル化する。
低照度画像/特徴を条件として取り、通常露光される画像の分布をガウス分布にマッピングすることを学ぶ可逆ネットワーク。
既存のベンチマークデータセットによる実験結果から,提案手法はより定量的,質的な結果を得ることができ,照度が良く,ノイズやアーティファクトが小さく,色も豊かになることがわかった。
論文 参考訳(メタデータ) (2021-09-13T12:45:08Z) - Hierarchical Conditional Flow: A Unified Framework for Image
Super-Resolution and Image Rescaling [139.25215100378284]
画像SRと画像再スケーリングのための統合フレームワークとして階層的条件フロー(HCFlow)を提案する。
HCFlowは、LR画像と残りの高周波成分の分布を同時にモデル化することにより、HRとLR画像ペア間のマッピングを学習する。
さらに性能を高めるために、知覚的損失やGAN損失などの他の損失と、トレーニングで一般的に使用される負の対数類似損失とを組み合わせる。
論文 参考訳(メタデータ) (2021-08-11T16:11:01Z) - Designing a Practical Degradation Model for Deep Blind Image
Super-Resolution [134.9023380383406]
単一画像スーパーレゾリューション (sisr) 法は, 推定劣化モデルが実画像から逸脱した場合はうまく動作しない。
本稿では, ランダムにシャッフルされたブラー, ダウンサンプリング, ノイズ劣化からなる, より複雑で実用的な劣化モデルを提案する。
論文 参考訳(メタデータ) (2021-03-25T17:40:53Z) - Quantization Guided JPEG Artifact Correction [69.04777875711646]
我々はJPEGファイル量子化行列を用いたアーティファクト修正のための新しいアーキテクチャを開発した。
これにより、特定の品質設定のためにトレーニングされたモデルに対して、単一のモデルで最先端のパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2020-04-17T00:10:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。