論文の概要: Quality Map Fusion for Adversarial Learning
- arxiv url: http://arxiv.org/abs/2110.12338v1
- Date: Sun, 24 Oct 2021 03:01:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-31 18:23:45.414245
- Title: Quality Map Fusion for Adversarial Learning
- Title(参考訳): 逆学習のための品質マップ融合
- Authors: Uche Osahor, Nasser M. Nasrabadi
- Abstract要約: 我々は,新しい画質マップ融合技術を導入することにより,画像品質を逆向きに改善する。
我々は広く採用されている l2 ワッサーシュタイン距離計量を他の好ましい品質基準に拡張する。
また,ネットワークボトルネックからグローバルな特徴埋め込みを抽出する知覚的注意機構(PAM)を組み込むことで,画像品質が向上することを示す。
- 参考スコア(独自算出の注目度): 23.465747123791772
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative adversarial models that capture salient low-level features which
convey visual information in correlation with the human visual system (HVS)
still suffer from perceptible image degradations. The inability to convey such
highly informative features can be attributed to mode collapse, convergence
failure and vanishing gradients. In this paper, we improve image quality
adversarially by introducing a novel quality map fusion technique that
harnesses image features similar to the HVS and the perceptual properties of a
deep convolutional neural network (DCNN). We extend the widely adopted l2
Wasserstein distance metric to other preferable quality norms derived from
Banach spaces that capture richer image properties like structure, luminance,
contrast and the naturalness of images. We also show that incorporating a
perceptual attention mechanism (PAM) that extracts global feature embeddings
from the network bottleneck with aggregated perceptual maps derived from
standard image quality metrics translate to a better image quality. We also
demonstrate impressive performance over other methods.
- Abstract(参考訳): ヒト視覚系(hvs)との相関関係で視覚情報を伝達する高度低レベル特徴をキャプチャする生成的敵モデルはまだ知覚可能な画像劣化に苦しむ。
このような高情報な特徴を伝達できないことは、モード崩壊、収束失敗、および勾配の消失に起因する。
本稿では,HVSに類似した画像特徴と深部畳み込みニューラルネットワーク(DCNN)の知覚特性を利用する新しい画質マップ融合技術を導入することにより,画像品質を逆向きに改善する。
我々は、広く採用されている l2 ワッサーシュタイン距離計量を、構造、輝度、コントラスト、画像の自然性といったよりリッチな画像特性を捉えるバナッハ空間から導かれる他の好ましい品質基準に拡張する。
また、ネットワークボトルネックからグローバルな特徴埋め込みを抽出する知覚的注意機構(PAM)を標準画像品質指標から得られる集約された知覚マップに組み込むことにより、画像品質が向上することを示す。
また,他の手法よりも優れた性能を示す。
関連論文リスト
- DiffLoss: unleashing diffusion model as constraint for training image restoration network [4.8677910801584385]
我々はDiffLossと呼ばれる画像復元ネットワークのトレーニングを支援するために拡散モデルを暗黙的に活用する新しい視点を導入する。
これら2つの設計を組み合わせることで、全体的な損失関数は画像復元の知覚的品質を改善することができ、視覚的に快く、意味的に強化された結果をもたらす。
論文 参考訳(メタデータ) (2024-06-27T09:33:24Z) - Diffusion Model Based Visual Compensation Guidance and Visual Difference
Analysis for No-Reference Image Quality Assessment [82.13830107682232]
本稿では, 複雑な関係をモデル化する能力を示す, 最先端(SOTA)生成モデルを提案する。
生成した拡張画像とノイズを含む画像を利用する新しい拡散復元ネットワークを考案する。
2つの視覚評価枝は、得られた高レベル特徴情報を包括的に解析するように設計されている。
論文 参考訳(メタデータ) (2024-02-22T09:39:46Z) - ARNIQA: Learning Distortion Manifold for Image Quality Assessment [28.773037051085318]
No-Reference Image Quality Assessment (NR-IQA) は、高品質な参照画像を必要としない、人間の知覚に合わせて画像品質を測定する手法を開発することを目的としている。
本研究では、画像歪み多様体をモデル化し、本質的な表現を得るための自己教師型アプローチ ARNIQA を提案する。
論文 参考訳(メタデータ) (2023-10-20T17:22:25Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - Flow-based Visual Quality Enhancer for Super-resolution Magnetic
Resonance Spectroscopic Imaging [13.408365072149795]
超高解像度MRSIの視覚的品質を向上させるためのフローベースエンハンサーネットワークを提案する。
我々のエンハンサーネットワークは、追加画像モダリティ(MRI)から解剖情報を取り込み、学習可能なベース分布を使用する。
また,視覚的品質調整や不確実性推定も可能である。
論文 参考訳(メタデータ) (2022-07-20T20:19:44Z) - Textural-Structural Joint Learning for No-Reference Super-Resolution
Image Quality Assessment [59.91741119995321]
我々は、TSNetと呼ばれる品質予測のためのテキスト情報と構造情報を共同で探索するデュアルストリームネットワークを開発した。
画像の重要な領域に注意を払っている人間の視覚システム(HVS)を模倣することにより、視覚に敏感な領域をより区別しやすくするための空間的注意機構を開発する。
実験の結果,提案したTSNetは現状のIQA法よりも視覚的品質を正確に予測し,人間の視点との整合性を示した。
論文 参考訳(メタデータ) (2022-05-27T09:20:06Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。