論文の概要: Deep Decomposition and Bilinear Pooling Network for Blind Night-Time
Image Quality Evaluation
- arxiv url: http://arxiv.org/abs/2205.05880v1
- Date: Thu, 12 May 2022 05:16:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 22:27:58.410313
- Title: Deep Decomposition and Bilinear Pooling Network for Blind Night-Time
Image Quality Evaluation
- Title(参考訳): ブラインド夜間画像品質評価のためのディープ分解とバイリニアポーリングネットワーク
- Authors: Qiuping Jiang, Jiawu Xu, Wei Zhou, Xiongkuo Min, Guangtao Zhai
- Abstract要約: 本稿では,この問題に対処するための新しいディープ・インクリメンタル・バイリニア・プール・ネットワーク(DDB-Net)を提案する。
DDB-Netには、画像分解モジュール、特徴符号化モジュール、双線形プールモジュールの3つのモジュールが含まれている。
提案したDDB-Netの優位性は、2つのパブリックな夜間画像データベースに関する広範な実験によってよく検証されている。
- 参考スコア(独自算出の注目度): 46.828620017822644
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Blind image quality assessment (BIQA), which aims to accurately predict the
image quality without any pristine reference information, has been highly
concerned in the past decades. Especially, with the help of deep neural
networks, great progress has been achieved so far. However, it remains less
investigated on BIQA for night-time images (NTIs) which usually suffer from
complicated authentic distortions such as reduced visibility, low contrast,
additive noises, and color distortions. These diverse authentic degradations
particularly challenges the design of effective deep neural network for blind
NTI quality evaluation (NTIQE). In this paper, we propose a novel deep
decomposition and bilinear pooling network (DDB-Net) to better address this
issue. The DDB-Net contains three modules, i.e., an image decomposition module,
a feature encoding module, and a bilinear pooling module. The image
decomposition module is inspired by the Retinex theory and involves decoupling
the input NTI into an illumination layer component responsible for illumination
information and a reflectance layer component responsible for content
information. Then, the feature encoding module involves learning multi-scale
feature representations of degradations that are rooted in the two decoupled
components separately. Finally, by modeling illumination-related and
content-related degradations as two-factor variations, the two multi-scale
feature sets are bilinearly pooled and concatenated together to form a unified
representation for quality prediction. The superiority of the proposed DDB-Net
is well validated by extensive experiments on two publicly available night-time
image databases.
- Abstract(参考訳): BIQA(Blind Image Quality Assessment, BIQA)は,過去数十年間,プリスタン参照情報なしで画像品質を正確に予測することを目的としている。
特に、ディープニューラルネットワークの助けを借りて、これまで大きな進歩を遂げてきた。
しかしながら、夜間画像(NTI)のBIQAでは、可視性、低コントラスト、付加雑音、色歪みなどの複雑な真の歪みに悩まされる場合がほとんどである。
これらの多様な真正性劣化は、特に、ブラインドNTI品質評価(NTIQE)のための効果的なディープニューラルネットワークの設計に挑戦する。
本稿では,この問題に対処するために,新たにDDB-Net(Deep decomposition and bilinear pooling network)を提案する。
DDB-Netには、画像分解モジュール、特徴符号化モジュール、双線形プールモジュールの3つのモジュールが含まれている。
画像分解モジュールは、Retinex理論にインスパイアされ、入力されたNTIを、照明情報を担当する照明層成分と、コンテンツ情報を担当する反射層成分とに分離する。
次に、特徴エンコーディングモジュールは、2つの分離されたコンポーネントに別々に根ざした劣化のマルチスケールな特徴表現を学習する。
最後に、照明関連およびコンテンツ関連劣化を2要素変動としてモデル化することにより、2つの多スケール特徴集合を双線形にプールして連結し、品質予測のための統一表現を形成する。
提案したDDB-Netの優位性は、2つのパブリックな夜間画像データベースに関する広範な実験によってよく検証されている。
関連論文リスト
- VQCNIR: Clearer Night Image Restoration with Vector-Quantized Codebook [16.20461368096512]
夜景撮影は、暗い環境や長時間の露光から生じる、暗い光やぼやけなどの課題に苦しむことが多い。
私たちは、データ駆動の高品質な事前処理の強みを信じ、手動による事前処理の制限を回避するために、信頼性と一貫性のある事前処理の提供に努めています。
VQCNIR(Vector-Quantized Codebook)を用いたClearer Night Image Restorationを提案する。
論文 参考訳(メタデータ) (2023-12-14T02:16:27Z) - Transformer-based No-Reference Image Quality Assessment via Supervised
Contrastive Learning [36.695247860715874]
本稿では,新しいコントラスト学習 (Contrastive Learning, SCL) と NR-IQA モデル SaTQA を提案する。
まず、SCLによる大規模合成データセット上にモデルをトレーニングし、様々な歪みタイプとレベルの画像の劣化特徴を抽出する。
画像から歪み情報を抽出するために,CNNインダクティブバイアスとTransformerの長期依存性モデリング機能を組み合わせることで,マルチストリームブロック(MSB)を組み込んだバックボーンネットワークを提案する。
7つの標準IQAデータセットの実験結果から、SaTQAは合成データセットと認証データセットの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-12-12T06:01:41Z) - Multi-task Image Restoration Guided By Robust DINO Features [88.74005987908443]
DINOv2から抽出したロバストな特徴を利用したマルチタスク画像復元手法であるmboxtextbfDINO-IRを提案する。
まず,DINOV2の浅い特徴を動的に融合するPSF (Pixel-semantic fusion) モジュールを提案する。
これらのモジュールを統一された深層モデルに定式化することにより、モデルトレーニングを制約するために、DINO知覚の対照的な損失を提案する。
論文 参考訳(メタデータ) (2023-12-04T06:59:55Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Learning Deep Context-Sensitive Decomposition for Low-Light Image
Enhancement [58.72667941107544]
典型的なフレームワークは、照明と反射を同時に推定することであるが、特徴空間にカプセル化されたシーンレベルの文脈情報を無視する。
本研究では,空間スケールにおけるシーンレベルのコンテキスト依存を生かした,コンテキスト依存型分解ネットワークアーキテクチャを提案する。
チャネル数を減らして軽量なCSDNet(LiteCSDNet)を開発する。
論文 参考訳(メタデータ) (2021-12-09T06:25:30Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Deep Attentive Generative Adversarial Network for Photo-Realistic Image
De-Quantization [25.805568996596783]
減量子化は、高ビット深度画面に表示するための低ビット深度画像の視覚的品質を改善することができる。
本稿では,画像強度分解能の超解像を実現するためのDAGANアルゴリズムを提案する。
DenseResAttモジュールは、自己保持機構を備えた密集した残留ブロックで構成されている。
論文 参考訳(メタデータ) (2020-04-07T06:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。