論文の概要、ライセンス

# (参考訳) ブラインド夜間画像品質評価のためのディープ分解とバイリニアポーリングネットワーク [全文訳有]

Deep Decomposition and Bilinear Pooling Network for Blind Night-Time Image Quality Evaluation ( http://arxiv.org/abs/2205.05880v1 )

ライセンス: CC BY 4.0
Qiuping Jiang, Jiawu Xu, Wei Zhou, Xiongkuo Min, Guangtao Zhai(参考訳) BIQA(Blind Image Quality Assessment, BIQA)は,過去数十年間,プリスタン参照情報なしで画像品質を正確に予測することを目的としている。 特に、ディープニューラルネットワークの助けを借りて、これまで大きな進歩を遂げてきた。 しかしながら、夜間画像(NTI)のBIQAでは、可視性、低コントラスト、付加雑音、色歪みなどの複雑な真の歪みに悩まされる場合がほとんどである。 これらの多様な真正性劣化は、特に、ブラインドNTI品質評価(NTIQE)のための効果的なディープニューラルネットワークの設計に挑戦する。 本稿では,この問題に対処するために,新たにDDB-Net(Deep decomposition and bilinear pooling network)を提案する。 DDB-Netには、画像分解モジュール、特徴符号化モジュール、双線形プールモジュールの3つのモジュールが含まれている。 画像分解モジュールは、Retinex理論にインスパイアされ、入力されたNTIを、照明情報を担当する照明層成分と、コンテンツ情報を担当する反射層成分とに分離する。 次に、特徴エンコーディングモジュールは、2つの分離されたコンポーネントに別々に根ざした劣化のマルチスケールな特徴表現を学習する。 最後に、照明関連およびコンテンツ関連劣化を2要素変動としてモデル化することにより、2つの多スケール特徴集合を双線形にプールして連結し、品質予測のための統一表現を形成する。 提案したDDB-Netの優位性は、2つのパブリックな夜間画像データベースに関する広範な実験によってよく検証されている。

Blind image quality assessment (BIQA), which aims to accurately predict the image quality without any pristine reference information, has been highly concerned in the past decades. Especially, with the help of deep neural networks, great progress has been achieved so far. However, it remains less investigated on BIQA for night-time images (NTIs) which usually suffer from complicated authentic distortions such as reduced visibility, low contrast, additive noises, and color distortions. These diverse authentic degradations particularly challenges the design of effective deep neural network for blind NTI quality evaluation (NTIQE). In this paper, we propose a novel deep decomposition and bilinear pooling network (DDB-Net) to better address this issue. The DDB-Net contains three modules, i.e., an image decomposition module, a feature encoding module, and a bilinear pooling module. The image decomposition module is inspired by the Retinex theory and involves decoupling the input NTI into an illumination layer component responsible for illumination information and a reflectance layer component responsible for content information. Then, the feature encoding module involves learning multi-scale feature representations of degradations that are rooted in the two decoupled components separately. Finally, by modeling illumination-related and content-related degradations as two-factor variations, the two multi-scale feature sets are bilinearly pooled and concatenated together to form a unified representation for quality prediction. The superiority of the proposed DDB-Net is well validated by extensive experiments on two publicly available night-time image databases.
公開日: Thu, 12 May 2022 05:16:24 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Deep Decomposition and Bilinear Pooling Network 深部分解と双ニアプールネットワーク 0.75
for Blind Night-Time Image Quality Evaluation ブラインド夜間画像品質評価のために 0.76
Qiuping Jiang, Jiawu Xu, Wei Zhou, Xiongkuo Min, Guangtao Zhai Qiuping Jiang, Jiawu Xu, Wei Zhou, Xiongkuo Min, Guangtao Zhai 0.42
1 2 2 0 2 y a M 2 1 1 2 2 0 2 y a m 2 1 である。 0.49
] M M . s c [ ] M . sc [ 0.33
1 v 0 8 8 5 0 1 v 0 8 8 5 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Abstract—Blind image quality assessment (BIQA), which aims to accurately predict the image quality without any pristine reference information, has been highly concerned in the past decades. 抽象的—ブラインド画像品質評価(BIQA:Blind Image Quality Assessment, BIQA)は、過去数十年間、画像の品質を正確に予測することを目的としていた。
訳抜け防止モード: 抽象画像品質評価(BIQA) 原始的な参照情報なしで 画像の品質を正確に予測することを目的としています 過去数十年 非常に心配していました
0.73
Especially, with the help of deep neural networks, great progress has been achieved so far. 特に、ディープニューラルネットワークの助けを借りて、これまで大きな進歩を遂げてきた。 0.71
However, it remains less investigated on BIQA for night-time images (NTIs) which usually suffer from complicated authentic distortions such as reduced visibility, low contrast, additive noises, and color distortions. しかしながら、夜間画像(NTI)のBIQAでは、可視性、低コントラスト、付加雑音、色歪みなどの複雑な真の歪みに悩まされる場合がほとんどである。 0.62
These diverse authentic degradations particularly challenges the design of effective deep neural network for blind NTI quality evaluation (NTIQE). これらの多様な真正性劣化は、特に、ブラインドNTI品質評価(NTIQE)のための効果的なディープニューラルネットワークの設計に挑戦する。 0.54
In this paper, we propose a novel deep decomposition and bilinear pooling network (DDB-Net) to better address this issue. 本稿では,この問題に対処するために,新たにDDB-Net(Deep decomposition and bilinear pooling network)を提案する。 0.84
The DDB-Net contains three modules, i.e., an image decomposition module, a feature encoding module, and a bilinear pooling module. DDB-Netには、画像分解モジュール、特徴符号化モジュール、双線形プールモジュールの3つのモジュールが含まれている。 0.82
The image decomposition module is inspired by the Retinex theory and involves decoupling the input NTI into an illumination layer component responsible for illumination information and a reflectance layer component responsible for content information. 画像分解モジュールは、Retinex理論にインスパイアされ、入力されたNTIを、照明情報を担当する照明層成分と、コンテンツ情報を担当する反射層成分とに分離する。 0.74
Then, the feature encoding module involves learning multi-scale feature representations of degradations that are rooted in the two decoupled components separately. 次に、特徴エンコーディングモジュールは、2つの分離されたコンポーネントに別々に根ざした劣化のマルチスケールな特徴表現を学習する。 0.75
Finally, by modeling illumination-related and contentrelated degradations as two-factor variations, the two multiscale feature sets are bilinearly pooled and concatenated together to form a unified representation for quality prediction. 最後に、照明関連およびコンテンツ関連劣化を2要素変動としてモデル化することにより、2つの多スケール特徴集合を双線形にプールして連結し、品質予測のための統一表現を形成する。 0.62
The superiority of the proposed DDB-Net is well validated by extensive experiments on two publicly available night-time image databases. 提案したDDB-Netの優位性は、2つのパブリックな夜間画像データベースに関する広範な実験によってよく検証されている。 0.58
Index Terms—Night-time image, Index Terms - リアルタイム画像。 0.54
image quality assessment, blind/no-reference, Retinex decomposition. 画像品質評価。 blind/no-reference、retinex decomposition。 0.61
I. INTRODUCTION I. イントロダクション 0.64
D UE to the poor lighting condition in night-time, d 夜間の照明条件の悪さについて 0.56
the captured night-time images (NTIs) are usually perceived with poor visibility and low visual quality. 撮影された夜間画像(ntis)は通常、視認性が悪く視覚品質が低いと知覚される。 0.66
Given that highquality NTIs are crucial for consumer photography and practical applications such as automated driving systems, many NTI quality/visibility enhancement algorithms have been proposed. 高品質のNTIは、消費者写真や自動走行システムなどの実用用途に欠かせないため、多くのNTI品質/可視性向上アルゴリズムが提案されている。 0.66
However, the research efforts on designing objective quality metrics that can automatically quantify the visual quality of NTIs and compare the performance of different NTI enhancement algorithms remain limited, which hereby hinders the development of this field. しかし、NTIの視覚的品質を自動的に定量化し、異なるNTI拡張アルゴリズムの性能を比較する客観的な品質指標を設計する研究は、まだ限られており、この分野の開発を妨げている。 0.75
Generally, objective image quality assessment (IQA) methods can be roughly divided into three categories, i.e., full-reference (FR), no-reference (NR), 一般的に、客観的画像品質評価(IQA)法は、大まかに3つのカテゴリ、すなわちフル参照(FR)、ノー参照(NR)に分けられる。 0.69
Q. Jiang and J. Xu are with the School of Information Science and Engineering, Ningbo University, Ningbo 315211, China (e-mail: jiangqiuping@nbu.edu .cn). Q. JiangとJ. Xuは、Ningbo University, Ningbo 315211, China(eメール:jiangqiuping@nbu.ed u.cn)の情報科学・工学部に所属している。 0.80
W. Zhou is with the Department of Electrical and Computer Engineering, University of Waterloo, Waterloo, Canada (e-mail: wei.zhou@uwaterloo.c a). W. Zhouはカナダのウォータールー大学電気・コンピュータ工学科(Eメール:wei.zhou@uwaterloo. ca)に所属している。 0.78
X. Min and G. Zhai are with the Institute of Image Communication and Information Processing, Shanghai Jiao Tong University, Shanghai 200240, China (minxiongkuo, zhaiguangtao@sjtu.ed u.cn). x. minとg. zhaiは、上海江東大学イメージコミュニケーション情報処理研究所、上海200240、中国(minxiongkuo, zhaiguangtao@sjtu.ed u.cn)に所属している。 0.80
and reduced-reference (RR) [1]. およびレファレンス参照(rr)[1]。 0.41
Among them, FR and RR IQA methods require full and partial reference information, respectively. FRとRR IQAは、それぞれ完全な参照情報と部分参照情報を必要とする。 0.75
However, for the NTIs we concerned, there is usually no available pristine image to provide any reference information. しかし、我々が懸念しているNTIに対して、通常、参照情報を提供するプリスタンイメージは存在しない。 0.67
Therefore, NR-IQA is more valuable for NTIs in this regard. したがって、NR-IQAはNTIにとってより貴重である。 0.71
Early studies on NR-IQA mainly focus on specific distortion types, i.e., assuming that a particular distortion type is known and then specific distortion-related features are extracted to predict image quality [2–6]. nr-iqaの初期の研究は主に特定の歪みタイプ、すなわち特定の歪みタイプが知られていると仮定し、特定の歪み関連特徴を抽出して画像品質を予測する[2〜6]。 0.73
Obviously, such the specificity limits their applications like the real-world night-time scenario. 明らかにそのような特異性は、現実世界の夜間シナリオのようなアプリケーションを制限する。 0.63
Although the rapid advances in the IQA community during the last decade push to produce general-purpose blind IQA (BIQA) methods [7–24] that can simultaneously work with a number of distortion types, their efficacies are still limited to synthetic distortions. 過去10年間のIQAコミュニティの急速な進歩は、様々な歪みタイプを同時に扱える汎用ブラインドIQA (BIQA) 法 [7–24] の創出を推し進めているが、その効果は依然として合成歪みに限られている。 0.75
This is evident by the fact that they usually validate their performance on legacy synthetic distortion benchmark databases where the distorted images are simulated from pristine corpus in laboratory. これは、歪んだ画像が実験室のプリシンコーパスからシミュレートされるレガシーな合成歪みベンチマークデータベースでパフォーマンスが検証されるという事実から明らかである。 0.79
As a result, the existing general-purpose BIQA methods still cannot work well with the authentically distorted images like the NTIs captured in the real-world night-time scenario. 結果として、既存の汎用BIQA法は、現実世界の夜間シナリオで捉えたNTIのような聴覚的に歪んだ画像では、まだうまく機能しない。 0.59
Recently, inspired by the success of deep neural networks in many image processing and computer vision tasks, great progresses have also been achieved on deep learning-based BIQA. 近年、多くの画像処理やコンピュータビジョンタスクでディープニューラルネットワークの成功に触発され、ディープラーニングベースのbiqaでも大きな進歩を遂げている。 0.67
However, it remains less investigated on deep learning-based BIQA for NTIs which usually suffer from complicated authentic distortions such as reduced visibility, low contrast, additive noises, invisible details, and color distortions. しかし、NTIの深層学習に基づくBIQAでは、可視性低下、低コントラスト、付加音、目に見えない詳細、色歪みなどの複雑な真正歪みに悩まされることが多い。 0.63
The diverse authentic degradations in NTIs pose great challenges to the design of highly effective end-to-end deep network architectures for blind NTI quality evaluation (NTIQE). NTIの信頼性の低下は、視覚的NTI品質評価(NTIQE)のための高効率なエンドツーエンドのディープネットワークアーキテクチャの設計に大きな課題をもたらす。 0.73
To evaluate the visual quality of NTIs, Xiang et al [25] first established a dedicated large-scale natural NTI database (NNID), which contains 2, 240 NTIs with 448 different image contents captured by three different photographic equipments in real-world scenarios along with their corresponding subjective quality scores (obtained by conducting human subjective experiments). NTIの視覚的品質を評価するため、Xiangらはまず2,240のNTIと448の異なる448の異なる画像コンテンツと、対応する主観的品質スコア(人間の主観的実験によって得られる)を含む、大規模なNTIデータベース(NNID)を構築した。
訳抜け防止モード: NTIの視覚的品質を評価する。 Xiang et al [ 25 ] は最初,大規模なNTIデータベース(NNID)を専用に構築した。 実世界の3つの異なる写真機器が捉えた448種類の画像を含む240のNTIと、それに対応する主観的品質スコア(人間の主観的実験によって得られる)を含む。
0.75
Then, a NR quality metric called BNBT is proposed by considering both brightness and texture features. そこで, BNBTと呼ばれるNR品質指標を提案し, 明るさとテクスチャ特性の両面から検討した。 0.63
The experimental results on NNID database have demonstrated an acceptable performance of BNBT, i.e., the predicted quality scores by BNBT are consistent with ground truth subjective quality scores. NNIDデータベースにおける実験結果からBNBTの許容性能,すなわちBNBTによる予測品質スコアは,基礎的真理主観的品質スコアと一致していることが示された。 0.79
Despite its effectiveness, BNBT requires elaborately-designed handcrafted features, which enlightens us to adopt an end-to-end data-driven method by taking the advantage of deep learning. BNBTはその有効性にもかかわらず、精巧に設計された手作りの機能を必要としており、ディープラーニングの利点を生かしてエンドツーエンドのデータ駆動方式を採用することを促進する。 0.42
However, designing tailored end-to-end deep neural net- しかし, エンド・ツー・エンドのニューラルネットの設計- 0.55
英語(論文から抽出)日本語訳スコア
2 Fig. 1. The proposed deep decomposition and bilinear pooling network (DDB-Net) for blind NTIQE. 2 図1。 ブラインドNTIQEのための深部分解・双線形プールネットワーク(DDB-Net)を提案する。 0.43
It contains an image decomposition module, a feature encoding module, and a bilinear pooling module. 画像分解モジュール、特徴エンコーディングモジュール、バイリニアプーリングモジュールが含まれている。 0.66
The image decomposition module takes an NTI as input and decouples it into two layer components, i.e., illumination (L) and reflectance (R). 画像分解モジュールは、NTIを入力として取り、照明(L)と反射(R)の2つの層成分に分解する。 0.76
Then, the feature encoding module involves learning multi-scale feature representations of degradations that are rooted in the illumination and reflectance separately. そして、この特徴符号化モジュールは、照明と反射を別々に根ざした劣化のマルチスケールの特徴表現を学習する。 0.78
Finally, the two multi-scale feature sets are bilinearly pooled and concatenated together to form a unified representation for quality prediction. 最後に、2つのマルチスケール特徴集合は双線型にプールされ、結合され、品質予測のための統一表現を形成する。 0.63
works for blind NTIQE is non-trivial due to the diverse authentic degradations. NTIQE は様々な精度の劣化のため、非自明である。 0.59
The main challenge is that heterogeneous distortions in NTIs make it difficult to learn a unified mapping from input NTI to quality score. 主な課題は、NTIの不均一な歪みが入力NTIから品質スコアへの統一写像の学習を困難にすることである。 0.73
An important observation is that the commonly-encountered distortions in NTIs can have impacts on either illumination perception or content perception. NTIにおける一般的な歪みは、照明知覚またはコンテンツ知覚に影響を及ぼす可能性がある。 0.74
For example, the color distortion and additive noise are only influencial in content perception while the reduced visibility and low contrast are only influencial in illumination perception. 例えば、色歪や付加ノイズはコンテンツ知覚にのみ影響し、可視性やコントラストの低下は照明知覚にのみ影響する。
訳抜け防止モード: 例えば、色歪みと付加ノイズは、コンテンツ知覚にのみ影響する。 視認性の低下とコントラストの低下は、照明知覚にのみ影響する。
0.74
Thus, it is intuitive to consider decomposing the input NTI into two independent components with each component accounting for illumination information and content information, respectively. したがって、入力ntiを2つの独立したコンポーネントに分解し、それぞれのコンポーネントが照明情報とコンテンツ情報とをそれぞれ計算することを直感的に考えることができる。 0.69
Assisted by such a tailored image decomposition process, the degradation features related to illumination perception and content perception can be better learned and then fused to facilitate blind NTIQE. このような画像分解過程を補助することにより、照明知覚やコンテンツ知覚に関連する劣化の特徴をよりよく学習し、融合してブラインドntiqeを促進することができる。 0.65
In this paper, we propose a novel deep decomposition and bilinear pooling network (DDB-Net) for blind NTIQE to better address the above issues. 本稿では,この課題に対処するために,視覚的NTIQEのための新しい深層分解・双線形プールネットワーク(DDB-Net)を提案する。 0.72
As shown in Fig 1, our DDB-Net contains three modules namely image decomposition module, feature encoding module, and bilinear pooling module. 図1に示すように、DDB-Netには画像分解モジュール、特徴符号化モジュール、双線形プールモジュールという3つのモジュールがあります。 0.70
Inspired by the Retinex theory [26], the image decomposition module involves decoupling the input NTI into two layer components, i.e., one layer component (illumination) is responsible for illumination information, while the other one (reflectance) for content information. retinex theory [26]にインスパイアされた画像分解モジュールは、入力ntiを2つのレイヤコンポーネントに分離すること、すなわち、一方のレイヤコンポーネント(照明)が照明情報を担当し、もう一方のレイヤ(反射)がコンテンツ情報を扱う。 0.77
Then, the feature encoding module involves learning multi-scale feature representations of degradations that are rooted in the two decoupled components separately. 次に、特徴エンコーディングモジュールは、2つの分離されたコンポーネントに別々に根ざした劣化のマルチスケールな特徴表現を学習する。 0.75
Finally, by modeling illumination-related 最後に照明関連をモデル化して 0.59
and content-related degradations as two-factor variations, the two multi-scale feature sets are bilinearly pooled and concatenated together to form a unified representation for quality prediction. コンテンツ関連劣化は2要素のバリエーションとして,2つのマルチスケール特徴集合を双方向にプールし,結合して品質予測の統一表現を形成する。 0.69
Extensive experiments conducted on two publicly available night-time image databases well demonstrated the superiority of the proposed DDB-Net against state-of-the-art BIQA methods. 公開されている2つの夜間画像データベースを用いた広範囲な実験により、提案されたddb-netの最先端biqa手法に対する優位性が実証された。 0.48
In summary, this paper presents the following contributions: まとめると,本稿では以下の貢献について述べる。 0.64
1) We make the first attempt to perform Retinex decomposition to facilitate NTIQE by decoupling the input NTI into two independent layer components (i.e., illumination and reflectance) with each component accounting for illumination information and content information, respectively. 1) 入力ntiを2つの独立した層成分(すなわち、照明と反射)に分離し、それぞれ照明情報と内容情報とを計算し、ntiqeを容易にするために、retinex分解を行う最初の試みを行う。 0.72
2) We introduce a self-reconstruction- based feature encoding module and design tailored loss functions to regularize the training process towards learning multi-scale illunimationrelated and content-related feature representations from the two decoupled components separately. 2) 自己再構成型特徴符号化モジュールと設計調整型損失関数を導入し, 2つの分離されたコンポーネントから多スケール照明およびコンテンツ関連特徴表現を別々に学習するためのトレーニングプロセスを標準化する。 0.70
3) We model the illumination-related and content-related degradations as two-factor variations and perform bilinear pooling to fuse the two multi-scale feature sets into a unified representation for quality prediction of NTIs. 3)照明関連およびコンテンツ関連劣化を2要素のバリエーションとしてモデル化し,2つの多スケール特徴集合を融合させてNTIの品質予測を行う。 0.81
The rest of this paper is organized in the following manner. この論文の残りは以下のように整理されている。 0.71
Section II introduces the related works. 第2節では関連作品を紹介する。 0.45
Sections III illustrates the proposed method with details. 第3節では、提案手法を詳述する。 0.55
Section IV presents the experimental results. 第4節は実験結果を示す。 0.65
Section V concludes the paper. 第5節はその論文を締めくくる。 0.39
In this section, we will review the existing related works, including traditional blind image quality assessment, deep 本節では,従来のブラインド画像品質評価,deepなど,既存の関連作品について概説する。 0.71
II. RELATED WORKS R෡𝑹ℒ𝑟𝑒𝑐𝑅=1−𝑆𝑆𝐼𝑀(𝑅,෠𝑅)+𝑅𝐵−෠𝑅𝐵22L෠𝑳ℒ𝑟𝑒𝑐𝐿=𝐿−෠𝐿22Bilinear PoolingConv_32_1×1_1Conv_32_1×1_1FCFCQConv_3×3Conv_3×3+ReLUConv_3×3+ReLU+MaxPooling_2×2Conv_3×3+ReLU+Upsampling_2SigmoidC opyConcatenate1232Im age Decomposition ModuleFeature Encoding ModuleFeature Encoding ModuleBilinear Pooling Module II。 関連作業 R-RLrecR=1-SSIM(R, yR)+RB- RB22L LLrecL=L-\L22Bilinear PoolingConv_32_1×1_1Conv_32_1_1FCFCQC onv_3×3Conv_3×3+ReLUConv_3×3+ReLU+MaxPooling_2×2Conv_3×3+ReLU+Upsampling_2SigmoidC opyConcatenate1232Im age Decomposition ModuleFeature Encoding ModuleBilinear Pooling Module 0.48
英語(論文から抽出)日本語訳スコア
learning-based blind image quality assessment, and blind image quality assessment in poor conditions. 学習に基づくブラインド画像品質評価、およびブラインド画像品質評価。 0.51
A. Traditional Blind Image Quality Assessment a. 伝統的ブラインド画像品質評価 0.81
In the literature of traditional blind image quality assessment, natural scene statistics (NSS) and human visual system (HVS) are two main cues for designing objective BIQA models. 従来のブラインド画像品質評価の文献では、自然シーン統計(NSS)と人間の視覚システム(HVS)が、客観的BIQAモデルの設計のための主要な方法である。 0.76
As for NSS-based frameworks, Moorthy et al [10] proposed the Distortion Identification-based Image Verity and INtegrity Evaluation (DIIVINE) index to evaluate perceptual image quality in a no-reference manner, which is composed of distortion identification and NSS-based quality regression. nssベースのフレームワークに関して、moorthy et al [10]は歪み識別とnssに基づく品質回帰からなる知覚的画像品質を評価するために、歪み識別に基づく画像妥当性・完全性評価(diivine)インデックスを提案した。 0.74
Likewise, the CurveletQA [9] also performs within a two-stage framework containing distortion classification and quality assessment. 同様に、CurveletQA[9]も歪み分類と品質評価を含む2段階のフレームワークで実行されます。 0.80
Different from DIIVINE, the quality assessment of CurveletQA is based on NSS features in curvelet domain. DiIVINEと異なり、CurveletQAの品質評価は、CurveletドメインのNAS機能に基づいている。
訳抜け防止モード: DiIVINEとは異なる。 CurveletQA の品質評価は Curvelet ドメインの NSS 機能に基づいている。
0.75
Except for the two-stage frameworks, other NSS-based BIQA algorithms have been developed. 2段階のフレームワークを除き、他のnssベースのbiqaアルゴリズムが開発されている。 0.53
For example, Mittal et al [8] presented the blind/referenceless image spatial quality evaluator (BRISQUE), which is operated in the spatial domain. 例えば、mittal et al [8] は、空間領域で操作されるブラインド/レファレンスレス画像空間品質評価器 (brisque) を提示した。 0.71
Moreover, the BLIINDS-II [7] was proposed by exploiting the NSS model of discrete cosine transform (DCT) coefficients. さらに, 離散コサイン変換(DCT)係数のNASモデルを用いてBLIINDS-II[7]を提案する。 0.71
In addition, some opinion-unaware BIQA methods based on NSS, i.e. so-called “completely blind” models, such as Natural Image Quality Evaluator (NIQE) [18] and ILNIQE [17], have shown competitive performance with the help of massive natural images. さらに,NSSに基づくBIQA手法,すなわちNatural Image Quality Evaluator (NIQE) [18] やILNIQE [17] など,いわゆる「完全に盲目」なモデルでは,膨大な自然画像の助けを借りて,競争力のある性能を示した。 0.83
Beyond the NSS features, many other statistical factors have been considered by researchers. NSSの特徴以外にも、多くの統計要因が研究者によって検討されている。 0.62
In the family of twostage framework, Liu et al [15] proposed the Spatial-Spectral Entropy-based Quality (SSEQ) index, where local spatial and spectral entropy features are used to predict perceptual image quality. 2段階の枠組みの族において、liu et al [15]は空間スペクトルエントロピーベース品質(sseq)指標を提案し、局所空間エントロピー特徴とスペクトルエントロピー特徴を用いて知覚画像品質を予測する。 0.74
The GM-LOG method [13] extracts the joint statistics of local contrast features to assess image quality, including gradient magnitude and Laplacian of Gaussian response. GM-LOG法[13]は,ガウス応答の勾配等,画像品質を評価するために,局所コントラスト特性の合同統計を抽出する。 0.76
Apart from statistical structural features, lumninance histogram is used in the NRSL model [11]. 統計的構造的特徴とは別に、NRSLモデル[11]では、ルミナンスヒストグラムが用いられる。 0.76
The NSS features are combined with contrast, sharpness, brightness and colorfulness, together forming the BIQME framework [16]. NSS機能はコントラスト、シャープネス、明るさ、カラフルネスと組み合わせて、BIQMEフレームワークを形成しています [16]。 0.72
For the HVS-based objective BIQA methods, some HVSinspired features are applied to estimate perceptual image quality. HVSをベースとした目的的BIQA法では、知覚画像の品質を推定するためにいくつかのHVSインスパイアされた特徴が適用される。 0.48
Among these methods, Gu et al [12] proposed the Noreference Free Energy-based Robust Metric (NFERM) on the basis of free energy principle. これらの方法のうち、Gu et al [12]は、自由エネルギー原理に基づいて、NFERM(Noreference Free Energy-based Robust Metric)を提案した。 0.74
In [19], Li et al used contrast masking to design the BIQA model based on structural degradation. 19]では、Liらはコントラストマスキングを用いて構造劣化に基づくBIQAモデルを設計した。 0.74
Besides, according to the similar concept regarding the HVS properties, they proposed the GWH-GLBP by computing the gradient-weighted histogram of local binary pattern [14]. さらに、HVS特性に関する同様の概念に基づき、局所二元パターンの勾配重み付きヒストグラムを計算してGWH-GLBPを提案した[14]。 0.85
However, the above-mentioned conventional BIQA methods generally need to design elaborate handcrafted features with the pre-defined NSS or HVS mechanisms. しかし、前述の従来のBIQA手法では、事前に定義されたNASまたはHVS機構で手作りの精巧な特徴を設計する必要がある。 0.48
Thus, resorting to data-driven methods based on deep learning is a promising alternative. したがって、ディープラーニングに基づくデータ駆動手法に頼ることは、有望な代替手段である。 0.49
B. Deep Learning-based Blind Image Quality Assessment B. 深層学習に基づくブラインド画像品質評価 0.88
Recently, deep learning has achieved great success in the field of blind image quality assessment. 近年,深層学習は画像品質評価の分野で大きな成功を収めている。 0.77
These methods can 3 be typically divided into two categories, consisting of those using pre-trained deep features and end-to-end learning ones. これらの方法は 3 通常、事前訓練された深い特徴とエンドツーエンドの学習機能からなる2つのカテゴリに分けられる。 0.58
For the first category, Wu et al [27] proposed the HFDBIQA that integrates deep semantic features from ResNet [28] into local structure features. 最初のカテゴリでは、Wu et al [27] が、ResNet [28] からの深いセマンティック機能をローカル構造特徴に統合する HFDBIQA を提案した。 0.70
Moreover, a Network in Network (NIN) model [29] pre-trained on ImageNet [30] was utilized to make image quality prediction. さらに,imagenet [30]で事前学習したネットワーク・イン・ネットワーク(nin)モデル[29]を用いて画質予測を行った。 0.83
For the second category, Kang et al [31] proposed a relatively shallow convolutional neural network (CNN) structure for BIQA. 第2のカテゴリでは、Kangら[31]がBIQAのための比較的浅い畳み込みニューラルネットワーク(CNN)構造を提案した。 0.69
Each patch is assigned a subjective quality of the corresponding image as the groundtruth targets for training. 各パッチには、トレーニング対象として対応するイメージの主観的品質が割り当てられる。 0.70
In this way, the visual quality of whole image is then calculated by averaging predicted patch quality values. このようにして、予測されたパッチ品質値を平均化することにより、画像全体の視覚品質を算出する。 0.65
Furthermore, a BIQA model was developed based on shearlet transform and stacked auto-encoders [32]. さらに、シャーレット変換と積み重ね自動エンコーダ[32]に基づくBIQAモデルを開発した。 0.76
In [33], the RankIQA was designed to synthesize masses of ranked images for training a Siamese network. 33]では、ランクIQAはシームズネットワークのトレーニングのためにランク画像の質量を合成するために設計された。 0.64
Ma et al [34] proposed an end-to-end optimized deep neural Network for BIQA. Maら[34]は、BIQAのためのエンドツーエンド最適化されたディープニューラルネットワークを提案した。 0.47
Additionally, Bosse et al [35] presented the end-to-end WaDIQaM that can blindly learn perceptual image quality. さらにbosse et al [35]は、知覚的な画像品質を盲目的に学習できるエンドツーエンドのwadiqamを発表した。
訳抜け防止モード: さらに、Bosse et al [35 ] が最後に提示した。 -to - end WaDIQaM 視覚的なイメージの質を 学べます
0.61
The deep bilinear convolutional neural network called DBCNN was proposed to bilinearly pool the feature representations to a single quality score [36]. DBCNNと呼ばれるディープバイリニア畳み込みニューラルネットワークは、特徴表現を単一の品質スコア[36]にバイリニアプールするために提案された。
訳抜け防止モード: DBCNNと呼ばれる深層双線形畳み込みニューラルネットワークの提案 特徴表現を1つの品質スコアにバイラインでプールする[36]。
0.78
Although the deep learning-based BIQA models can deliver good performance, they are not suitable for evaluating the perceptual quality of NTIs. ディープラーニングベースのBIQAモデルは優れた性能を提供できるが、NTIの知覚品質を評価するには適していない。 0.69
This is mainly because these models usually neglect the specific characteristics of NTIs, e g reduced visibility, low contrast, additive noises, invisible details, and color distortions. これは主に、NTIの特定の特性、例えば可視性、低コントラスト、付加音、目に見えない詳細、色歪みを無視するためである。 0.66
C. Quality Assessment for Images in Poor Conditions 環境条件下における画像の品質評価 0.72
In real-world applications, people may encounter many kinds of poor imaging environments, e g hazy, rainy, underwater, and so on. 現実世界のアプリケーションでは、人々は、ハジー、雨、水中など、さまざまな画像環境に遭遇する可能性がある。 0.72
In such poor conditions, capturing images with high-quality is quite challenging and thus addressing the blind quality assessment issue is urgently needed. このような貧弱な状況下では、高画質の画像撮影は非常に困難であり、盲目品質評価問題への対処が急務である。 0.62
In the quality evaluation of hazy images, Min et al [37] proposed the haze-removing features, structure-preserving features, and over-enhancement features to construct the objective quality assessment index. hazyイメージの品質評価において、min et al [37]は、客観的品質評価指標を構築するために、haze除去機能、構造保存機能、過剰強調機能を提案した。
訳抜け防止モード: hazyイメージの品質評価において、min et al [37 ]はhaze - remove features を提案した。 構造 - 特徴の保存と拡張機能 客観的品質評価指標を構築する。
0.71
They also used synthetic hazy images to build an effective quality assessment model for image dehazing [38]. また、合成ヘイズ画像を用いて、画像デハージングのための効果的な品質評価モデルを構築した[38]。
訳抜け防止モード: 合成ヘイズ画像も使用した。 イメージデハージングのための効果的な品質評価モデルを構築する[38]。
0.77
For image deraining, an efficient objective quality assessment model to predict the human perception towards derained images was developed, which belongs to a bi-directional gated fusion network [39]. 画像参照のために,双方向ゲート型融合ネットワーク [39] に属する画像に対する人間の知覚を予測する効率的な客観的品質評価モデルを開発した。 0.86
They further extended it to a bi-directional feature embedding network to further advance the performance [40]. さらに、パフォーマンスをさらに進めるために、双方向の機能埋め込みネットワークに拡張した[40]。 0.77
As for underwater image quality evaluation, Yang et al [41] proposed to linearly combine chroma, saturation and contrast factors for quantifying the perceptual quality of underwater images. 水中画像の品質評価については, 色調, 彩度, コントラストを線形に組み合わせ, 水中画像の知覚品質を定量化することを提案した。 0.76
In [42], colorfulness, sharpness and contrast measures were fused to predict the underwater image quality. 42]では,水中画像の品質を予測するために,色度,鋭さ,コントラストを融合させた。 0.73
It should be noted that the degradation characteristics of NTIs are different from those of hazy, rainy and underwater images. NTIの劣化特性は, 湿潤, 雨, 水中の画像と異なる点に注意が必要である。 0.68
Thus, these quality evaluation methods developed for hazy, rainy and underwater images cannot achieve good performance on NTIs. したがって,ntisでは,ヘイザイ,雨水,水中画像の品質評価手法は良好な性能を得られない。 0.75
In this paper, we focus on designing efficient end-to-end deep network architectures for blind NTIQE. 本稿では,視覚的NTIQEのための効率的なエンドツーエンドネットワークアーキテクチャの設計に焦点をあてる。 0.67
英語(論文から抽出)日本語訳スコア
III. PROPOSED DDB-NET FOR BLIND NTIQE III。 ブラインド数値のためのDDB-NETの提案 0.58
In this section, we first describe the architecture of the image decomposition module. 本稿ではまず,画像分解モジュールのアーキテクチャについて述べる。 0.64
We then introduce the selfreconstruction-b ased feature encoding module for hierarchical illunimation-related and content-related feature learning. 次に,階層的不等化関連およびコンテンツ関連特徴学習のための自己再構築型特徴符号化モジュールを提案する。 0.58
Finally, we present the bilinear pooling module for fusing the two hierarchical feature sets. 最後に、2つの階層的特徴集合を融合させる双線型プールモジュールを提案する。 0.64
A. Image Decomposition Module A.画像分解モジュール 0.78
4 According to the Retinex theory [26], a single image I can be considered as a composition of two independent layer components, i.e., reflectance R and illumination L, in the fashion of I = R ⊗ L, where ⊗ denotes element-wise product. 4 レチネックス理論 [26] によれば、単一の像 I は独立な2つの層成分、すなわち反射率 R と照明量 L の合成とみなすことができる。
訳抜け防止モード: 4 Retinex 理論 [26 ] によれば、単一の像 I を2つの独立した層成分の合成と考えることができる。 すなわち、反射率Rと照明量Lは、I = は元を表し、右積は右積である。
0.53
However, recovering two independent components from one single input is a typical ill-posed problem. しかし、1つの入力から2つの独立したコンポーネントを復元することは、典型的な誤った問題である。 0.51
Here, we resort to deep neural network to achieve this goal. ここでは、この目標を達成するためにディープニューラルネットワークを使用します。 0.61
In what follows, we first describe the detailed architecture of our image decomposition module and then present how to train it in advance. 以下では、まず画像分解モジュールの詳細なアーキテクチャを説明し、次に事前にトレーニングする方法を示します。 0.68
That is, the image decomposition module is pretrained and kept fixed during the training of DDB-Net. すなわち、画像分解モジュールは事前トレーニングされ、DDB-Netのトレーニング中に固定される。 0.74
The architecture of image decomposition module is shown in the upper left of Fig 1. 画像分解モジュールのアーキテクチャは、図1の上左に示される。 0.73
It contains two streams corresponding to the reflectance (R) and illumination (L), respectively. それぞれ反射(R)と照明(L)に対応する2つのストリームを含む。 0.79
The reflectance stream adopts a typical 5-layer U-Net, followed by two convolutional (conv) layers and a Sigmoid layer in the end, while the illumination stream is composed of two conv+ReLU layers and a conv layer on concatenated feature maps from the reflectance branch, finally followed by a Sigmoid layer in the end. リフレクタンス・ストリームは典型的な5層u-netを採用し、2つの畳み込み(conv)層と1つのシグモイド層が最後となるが、リフレクタンス・ブランチから連結された特徴マップ上に2つのconv+relu層とconv層で構成され、最後にシグモイド層が続く。 0.72
Since no/few ground-truth reflectance and illumination maps for real images are available, designing a well-defined nonreference loss function is the key to the success for training a robust deep Retinex decomposition network. 実画像に対するno/few反射率と照明マップが利用可能であるため、頑健なディープリチネックス分解ネットワークを訓練する上では、よく定義された非参照損失関数の設計が鍵となる。 0.66
Keeping in mind that different shots of a certain scene should share the same reflectance. 特定のシーンの異なるショットは、同じ反射率を共有するべきであることを念頭に置いておく。
訳抜け防止モード: それを念頭に置いて あるシーンの異なるショットは 同じリフレクタンスを共有するべきです
0.77
Furthermore, while the illumination maps, though could be intensively varied, are of simple and mutually consistent structure. さらに、照明写像は集中的に変化するが、単純かつ相互に一貫した構造である。
訳抜け防止モード: さらに、照明マップは集中的に変化する可能性がある。 シンプルで相互に一貫性のある構造です
0.71
This inspires us to take a pair of images (describing the same scene) as input and impose both reflectance and illumination constraints between the image pair to train the image decomposition module. これにより、入力として1対のイメージ(同じシーンを記述している)を取り、イメージペア間の反射と照明の制約を課して、イメージ分解モジュールをトレーニングする。 0.69
Specifically, during the training stage, the input to image decomposition module is an image pair of the same scene with different light/exposure configurations, as denoted by [Il, Ih]. 具体的には、トレーニング段階において、画像分解モジュールへの入力は、[Il,Ih]で示されるように、異なる光/露光構成の同じシーンのイメージ対である。
訳抜け防止モード: 具体的には、トレーニング段階では、画像分解モジュールへの入力は、異なる光/露光構成の同じシーンのイメージ対である。 Il , Ih ] で表されるように.
0.78
Similarly, the decomposed reflectance and illumination components are denoted by [Rl, Rh] and [Ll, Lh], respectively. 同様に、分解された反射率と照明成分はそれぞれ [Rl,Rh] と [Ll,Lh] で表される。 0.84
The training of the proposed image decomposition module is guided by hybrid loss terms which are to be detailed subsequently. 提案した画像分解モジュールのトレーニングは、その後詳細となるハイブリッド損失項によって導かれる。 0.76
Inter-consistency loss: The inter-consistency loss includes reflectance consistency loss and illumination mutual consistency loss. 相互整合損失: 相互整合損失は、反射率整合損失と照明相互整合損失を含む。 0.66
First, the reflectance consistency loss LR con encourages the reflectance similarity, which is defined as follows: まず、反射率一貫性損失lr conは反射率類似性を助長し、次のように定義する。 0.65
(1) where (cid:107) · (cid:107)1 means the (cid:96)1 norm. 1) (cid:107) · (cid:107)1 は (cid:96)1 ノルムを意味する。 0.70
Second, the illumination mutual consistency loss LL 第2に、照明相互整合損失LL 0.70
con = (cid:107)Rl − Rh(cid:107)1, LR (cid:18) con = (cid:107)Rl − Rh(cid:107)1, LR (cid:18) 0.44
con is defined as follows: c2 ⊗ exp con は次のように定義される。 0.62
− M 2 2c2 LL con = f (M ) = -M22c2 LL con = f (M ) = 0.39
(cid:13)(cid:13)(cid :13)(cid:13) M (cid:13)(cid:13)(cid :13)m 0.46
(cid:19)(cid:13)(cid :13)(cid:13)(cid:13) 1 (cid:19)(cid:13)(cid :13)(cid:13)1 0.45
, (2) Image reconstruction loss: The third consideration is that the decomposed two components should well reproduce , (2) 画像再構成の損失:第3に、分解された2つのコンポーネントは、よく再現されるべきである
訳抜け防止モード: , (2) 画像再構成損失 第3の考慮事項は 分解された2つのコンポーネントは
0.54
Fig. 2. Penalty curves with different values of c. 図2。 c の値が異なるペナルティ曲線。 0.61
M = |(cid:79)Ll| + |(cid:79)Lh| , M = |(cid:79)Ll| + |(cid:79)Lh| 。 0.79
(3) where (cid:79) means the first order derivative operator along both horizontal and vertical directions, c is a parameter controlling the shape of the above penalty curve. (3) (cid:79) が水平方向と垂直方向の両方に沿って第1次微分作用素を意味する場合、c は上記のペナルティ曲線の形状を制御するパラメータである。 0.70
To facilitate understanding, we draw the penalty curves with different values of c in Fig. 2. 理解を容易にするために、図2でcの値が異なるペナルティ曲線を描く。 0.71
As we can see, the penalty value first increases and then decreases to zero as M increases. ご覧の通り、ペナルティ値が最初に増加し、Mが増加するにつれて0に減少する。 0.71
In our implementation, we set c = 0.1 empirically. 実装では、c = 0.1 を経験的に設定する。 0.62
By minimizing such an illumination mutual consistency loss, the mutual strong edges are encouraged to be well preserved and all weak edges are to be suppressed. このような照明的相互整合損失を最小化することにより、相互強辺を良好に保存し、全ての弱辺を抑制できる。 0.69
Individual smoothness loss: Besides the inter-consistency loss, we also consider isolate loss for each decomposed component separately by considering their own smoothness properties. 個別の滑らかさ損失: 一貫性損失に加えて, 各分解成分の分離損失も, それぞれの滑らかさ特性を考慮し検討した。 0.78
On the one hand, the illumination maps should be piece-wise smooth, thus we introduce a structure-aware smoothness loss LL S to constraint both Ll and Lh: (cid:79)Ll 一方、照明写像は断片的に滑らかでなければならないので、Ll と Lh: (cid:79)Ll を制約するために構造対応の滑らかさ損失 LL S を導入する。 0.74
(cid:79)Lh (cid:79)lh 0.38
max{((cid:79)Rl)2, τ} max{((cid:79)Rl)2, τ} 0.49
+ max{((cid:79)Rh)2, τ} + max{((cid:79)Rh)2, τ} 0.46
(cid:13)(cid:13)(cid :13)(cid:13)1 (cid:13)(cid:13)(cid :13)1 0.48
(cid:13)(cid:13)(cid :13)(cid:13) (cid:13)(cid:13)(cid :13) 0.47
(cid:13)(cid:13)(cid :13)(cid:13)1 (cid:13)(cid:13)(cid :13)1 0.48
, (4) (cid:13)(cid:13)(cid :13)(cid:13) , (4) (cid:13)(cid:13)(cid :13) 0.44
LL sm = to the reflectance. LL sm = 反射率に 0.46
Therefore, where τ denotes a small positive constant which is empirically set to τ = 0.01 to avoid the denominator being zero. そのため ここで τ は τ = 0.01 に実験的に設定された小さな正の定数を表す。 0.74
This loss measures the relative structure of the illumination with respect the illumination loss can be aware of image structure reflected by the reflectance. この損失は、反射率によって反射された画像構造を照明損失に関して照明の相対構造を測定することができる。 0.81
Specifically, for a strong edge point in the reflectance map, the penalty on the illumination will be small; for a point in the flat region of the reflectance map, the penalty on the illumination turns to be large. 具体的には、反射率マップの強い端点については、照明上のペナルティが小さくなり、反射率マップの平坦な領域にある点では、照明上のペナルティが大きくなる。 0.63
On the other hand, different from the illumination maps that should be piece-wise smooth, the reflectance maps are usually tend to be piece-wise continuous. 一方、部分的に滑らかであるべき照明写像とは違い、反射写像は通常、部分的に連続である傾向がある。
訳抜け防止モード: 一方、照明マップとは、片付けるべきものとは異なる - 賢明にスムーズだ。 反射率写像は通常、分割される傾向がある。
0.69
Thus, we directly introduce a classical total-variation loss LR S to constraint both R and Rhe: したがって、RとRheの両方を制約するために古典的な全変分損失LRSを直接導入する。 0.65
LR sm = (cid:107)(cid:79)Rl( cid:107)1 + (cid:107)(cid:79)Rh( cid:107)1. LR sm = (cid:107)(cid:79)Rl( cid:107)1 + (cid:107)(cid:79)Rh( cid:107)1。 0.41
(5) (5) 0.43
英語(論文から抽出)日本語訳スコア
5 Fig. 3. Diagram for the training process of our image decomposition module. 5 図3。 画像分解モジュールのトレーニングプロセスのためのダイアグラム。 0.58
the input in the fashion of element-wise product, which is constrained by an image reconstruction loss: 画像再構成損失によって制約される要素的積の様式による入力 0.66
Lrec = (cid:107)Il − Ll ⊗ Rl(cid:107)1 + (cid:107)Ih − Lh ⊗ Rh(cid:107)1. Lrec = (cid:107)Il − Ll ^ Rl(cid:107)1 + (cid:107)Ih − Lh ^ Rh(cid:107)1 0.46
loss: The total loss for our layer decomposition 損失:全額 層分解の損失は 0.64
(6) Total module is defined as follows: con + LL (6) 総 モジュールは次のように定義される。 0.57
Ldecomp = LR Ldecomp = LR 0.42
con + LR sm + LL con + LR sm + ll である。 0.43
sm + Lrec, sm + lrec である。 0.69
(7) Fig. 4. Architecture of our self-reconstruction- based encoder-decoder network for hierarchical feature learning. (7) 図4。 階層的特徴学習のための自己再構成型エンコーダ・デコーダネットワークのアーキテクチャ 0.57
To facilitate understanding, as shown in Fig 3, we draw a simple diagram to better illustrate the training process of our image decomposition module where all the involved loss terms are specified. 理解を容易にするため、図3に示すように、画像分解モジュールのトレーニングプロセスを説明するための簡単な図を作成します。
訳抜け防止モード: 図3に示すように、理解を容易にする。 簡単な図を描きます すべての損失項が指定された画像分解モジュールのトレーニングプロセスをよりよく説明できるようにする。
0.80
It should be emphasized that our image decomposition module is pre-trained on a collection of images pairs of the same scenes with different light/exposure configurations. 画像分解モジュールは、異なる光/露光構成の同じシーンのイメージペアのコレクションで事前訓練されていることを強調する必要がある。 0.74
Such paired images are only required during the pre-training stage. このようなペア画像は、事前訓練段階でのみ必要となる。 0.63
Once it is pre-trained, all the parameters of this module will not be updated during the training of other modules involved in our DDB-Net. 一度事前トレーニングされると、このモジュールのすべてのパラメータは、DDB-Netに関わる他のモジュールのトレーニング中に更新されない。 0.73
B. Feature Encoding Module B.特徴符号化モジュール 0.90
After obtaining the reflectance and illumination components via the pre-trained image decomposition module, the next step is to build feature representations for each of these two components separately. 事前訓練された画像分解モジュールを介して反射率と照明成分を取得すると、次のステップはこれらの2つのコンポーネントそれぞれにそれぞれ特徴表現を構築することである。
訳抜け防止モード: 事前訓練された画像分解モジュールを介して反射率と照明成分を得る。 次のステップは これら2つのコンポーネントをそれぞれ別々に特徴表現を構築する。
0.77
In this work, we design a simple selfreconstruction-b ased encoder-decoder architecture to achieve this goal. 本研究では,この目的を達成するために,簡単な自己再構成型エンコーダデコーダアーキテクチャを設計する。 0.62
Specifically, both the reflectance and illumination components share the same feature encoding network architecture. 具体的には、反射成分と照明成分の両方が、ネットワークアーキテクチャを符号化する同じ特徴を共有している。 0.58
However, these two feature encoding networks are optimized with different loss terms, i.e., tailored loss terms are designed to regularize the feature encoding of reflectance and illumination components separately. しかし、これらの2つの特徴符号化ネットワークは、異なる損失項で最適化されており、すなわち、反射率と照明成分の特徴符号化を別々に正規化するように調整された損失項が設計されている。 0.59
In what follows, we first present the detailed network configurations and then introduce the tailored loss terms. 以下では、まず、詳細なネットワーク構成を説明し、その後、調整された損失項を導入する。
訳抜け防止モード: 次に、まず詳細なネットワーク構成を示す。 そして 調整された損失条件を導入する。
0.70
As shown in the upper right of Fig 1, our proposed selfreconstruction-b ased encoder-decoder module involves two parts namely encoder and decoder. 図1の右上に示すように、自己再構成に基づくエンコーダデコーダモジュールは、エンコーダとデコーダの2つの部分を含む。 0.71
The encoder receives either the reflectance (R) or illumination (L) component as input and progressively forms a set of hierarchical feature representations C1, C2, C3, C4, and C5. エンコーダは、リフレクタンス(R)または照明(L)成分を入力として受信し、一連の階層的特徴表現C1,C2,C3,C4,C5を段階的に形成する。 0.78
Then, the decoder takes the last feature representations C5 as input and progressively reconstruct the input signal ( ˆR or ˆL). 次に、デコーダは、最後の特徴表現c5を入力として入力信号を段階的に再構成する。 0.68
The detailed architecture of this module is depicted in Fig 4. このモジュールの詳細なアーキテクチャは図4に示されている。 0.84
The encoder contains several stacked convolutional blocks with each block エンコーダは、各ブロックに複数の積み重ねられた畳み込みブロックを含む 0.73
consisting of two or three 3×3 convolutional layers followed by one 2×2 max-pooling layer. 2つまたは3つの3×3の畳み込み層と1つの2×2の最大プール層からなる。 0.55
The stride of all convolutional layers is set to 1. すべての畳み込み層のストライドは 1 に設定される。 0.72
In addition, each convolutional layer is equipped with an activation layer ReLU. さらに、各畳み込み層は、活性化層ReLUを備える。 0.66
The numbers of feature channels are set to 32, 64, 128, 256, and 512, for C1, C2, C3, C4, and C5, respectively. 特徴チャネルの数は、それぞれC1, C2, C3, C4, C5に対して32, 64, 128, 256, 512に設定されている。 0.85
Since the reflectance and illumination components contain NTI degradation information in different aspects, it is necessary to design customized loss terms to guide the reconstruction of each component. 反射率と照明成分は異なる側面でNTI劣化情報を含むため、各部品の復元を導くためにカスタマイズされた損失項を設計する必要がある。 0.83
To be specific, the loss constraints imposed on the reflectance reconstruction include a structure loss Lstr and a color loss Lcolor, while the loss constraints imposed on the illumination reconstruction include a mean square error (MSE) loss Lmse. 具体的には、反射率再構成に課される損失制約は、構造損失Lstrと色損失Lcolorとを含み、照明再構成に課される損失制約は平均二乗誤差(MSE)損失Lmseを含む。 0.80
The learned reflectance feature representations will focus more on the structural and color information due to the joint guidance of Lstr and Lcolor, while the learned illumination feature representations will focus more on the luminance information with the guidance of Lmse. 学習された反射率特徴表現は、LstrとLcolorの合同指導による構造情報と色情報に集中し、学習された照明特徴表現はLmseの指導による輝度情報に集中する。 0.72
In the following, we will introduce the definitions and formulations of these loss terms one by one. 以下、これらの損失項の定義と定式化を1つずつ紹介する。 0.58
1) Structure loss: Previous works have reproted that the HVS is highly sensitive to the structural information of images and low-quality NTIs will change the structural percpetion [43]. 1) 構造損失: HVS は画像の構造情報に非常に敏感であり,低品質の NTI が構造的摂動を変えることが示唆されている[43]。 0.84
We adopt the widely-used structural similarity (SSIM) [43] loss between the input reflectance image R and its corresponding reconstructed version ˆR for encouraging the encoder to have the capacity of extracting informative structural features. 我々は、入力反射率画像Rとそれに対応する再構成されたバージョン(R)との広範に使用される構造的類似性(SSIM)[43]の損失を採用し、エンコーダが情報的構造的特徴を抽出する能力を持つように促す。 0.67
The SSIM loss is defined as follows: SSIM損失は次のように定義される。 0.79
Lstr = 1 − SSIM (R, ˆR), lstr = 1 − ssim (r, r) である。 0.85
(8) where SSIM (A, B) computes the structural similarity score between image A and image B according to [43]. (8) ここでSSIM(A,B)は[43]に従って画像Aと画像Bの構造的類似点を算出する。 0.65
2) Color loss: It is a common sense that NTIs will introduce color distortions and the reflectance component contains 2)色損失:NTIが色歪みを導入し、反射成分が含有されることは一般的な感覚である。 0.81
𝑰𝒉𝑰𝒍𝑹𝒉𝑹𝒍𝑳𝒉𝑳𝒍Input Paired ImagesReflectanceIll uminationImageDecomp ositionModule𝓛𝒄𝒐𝒏𝑹𝓛𝒄𝒐𝒏𝑳𝓛𝒔𝒎𝑹𝓛𝒔𝒎𝑳𝓛𝒓𝒆𝒄𝑹𝓛𝒓𝒆𝒄𝑳Conv(3, 32, 1)Conv(3, 32, 1)Conv(3, 64, 1)Conv(3, 64, 1)Conv(3, 128, 1)Conv(3, 128, 1)Conv(3, 128, 1)Conv(3, 256, 1)Conv(3, 256, 1)Conv(3, 256, 1)MaxPool(2, 32)MaxPool(2, 64)MaxPool(2, 128)MaxPool(2, 256)Conv(3, 3/1, 1)Conv(3, 32, 1)Conv(3, 64, 1)Conv(3, 64, 1)Conv(3, 128, 1)Conv(3, 128, 1)Conv(3, 128, 1)Conv(3, 256, 1)Conv(3, 256, 1)Conv(3, 256, 1)UpSam(2, 32)UpSam(2, 64)UpSam(2, 128)UpSam(2, 256)Conv(3, 512, 1)Conv(3, 512, 1)Conv(3, 512, 1)𝑅𝑜𝑟𝐿෠𝑅𝑜𝑟෠𝐿10×Conv+4×Maxpool𝐶1𝐶2𝐶3𝐶4𝐶510×Conv+4×UpSample3×Conv 𝑰𝒉𝑰𝒍𝑹𝒉𝑹𝒍𝑳𝒉𝑳𝒍Input Paired ImagesReflectanceIll uminationImageDecomp ositionModule𝓛𝒄𝒐𝒏𝑹𝓛𝒄𝒐𝒏𝑳𝓛𝒔𝒎𝑹𝓛𝒔𝒎𝑳𝓛𝒓𝒆𝒄𝑹𝓛𝒓𝒆𝒄𝑳Conv(3, 32, 1)Conv(3, 32, 1)Conv(3, 64, 1)Conv(3, 64, 1)Conv(3, 128, 1)Conv(3, 128, 1)Conv(3, 128, 1)Conv(3, 256, 1)Conv(3, 256, 1)Conv(3, 256, 1)MaxPool(2, 32)MaxPool(2, 64)MaxPool(2, 128)MaxPool(2, 256)Conv(3, 3/1, 1)Conv(3, 32, 1)Conv(3, 64, 1)Conv(3, 64, 1)Conv(3, 128, 1)Conv(3, 128, 1)Conv(3, 128, 1)Conv(3, 256, 1)Conv(3, 256, 1)Conv(3, 256, 1)UpSam(2, 32)UpSam(2, 64)UpSam(2, 128)UpSam(2, 256)Conv(3, 512, 1)Conv(3, 512, 1)Conv(3, 512, 1)𝑅𝑜𝑟𝐿෠𝑅𝑜𝑟෠𝐿10×Conv+4×Maxpool𝐶1𝐶2𝐶3𝐶4𝐶510×Conv+4×UpSample3×Conv 0.47
英語(論文から抽出)日本語訳スコア
almost all the color information in an image. 画像のほとんどすべての色情報です 0.61
Thus, a simple yet effective color loss term between R and ˆR is desired, which will encourage the encoder to have the capability of extracting color features. したがって、R-R間の単純で効果的な色損失項が望まれており、エンコーダは色の特徴を抽出する能力を持つ。 0.79
Inspired by [44], the blurring operation can remove high frequencies of an image and promote color comparison. 44]にインスパイアされたぼやけた操作は、画像の高周波数を除去し、色比較を促進する。 0.65
Thus, the following color loss is introduced: これにより、以下の色損失がもたらされる。 0.74
(cid:13)(cid:13)(cid :13)RB − ˆRB (cid:13)(cid:13)(cid :13)RB − sRB 0.40
(cid:13)(cid:13)(cid :13)2 (cid:13)(cid:13)(cid :13)2 0.38
2 Lcolor = 2 Lcolor = 0.42
, (9) 6 where RB and ˆRB are the blurred versions of R and ˆR, respectively: , (9) 6 RB と sRB はそれぞれ R と sR のぼやけたバージョンである。 0.49
R(i + ∆i, j + ∆j)G(∆i, ∆j), R(i + ジイ, j + ジイ)G(ジイ, ジイ) 0.62
(10) Fig. 5. Sample images pairs with different light/exposure configurations. (10) 図5。 サンプル画像は、異なる光/露光構成のペアである。 0.54
(a)- (d) are four well-illuminated images. (a)- (d)よく照らされた4つの画像。 0.45
(e)-(h) are the corresponding illilluminated images. (e)-(h)は対応する照明画像である。 0.69
RB(i, j) = RB(i, j) = 0.42
ˆRB(i, j) = シュRB(i, j) = 0.79
(cid:88) (cid:88) (cid:88)(cid:88) 0.37
Ω(i,j) Ω(i,j) Ω(i,j) Ω(i,j) 0.42
ˆR(i + ∆i, j + ∆j)G(∆i, ∆j), yR(i + si, j + sj)G(si, sj) 0.31
(11) where Ω(i, j) is an image patch centered by the pixel at (i, j) and G(∆i, ∆j) is the 2-D Gaussian blur kernel, which can be expressed as: (11) Ω(i, j) は (i, j) のピクセル中心の画像パッチであり、G(i, j) は 2-D ガウスのぼやけた核であり、次のように表すことができる。 0.62
G(∆i, ∆j) = T · exp G('i, 'j') = T · exp 0.40
− (∆i − µ)2 + (∆j − µ)2 -2 × (μi − μ)2 + (μj − μ)2 0.42
2σ (cid:18) 2σ (cid:18) 0.39
(cid:19) where the parameters are set according to [44] and we set T = 0.053, µ = 0, and σ = 3, respectively. (cid:19) ここでパラメータは [44] に従って設定され、それぞれ t = 0.053, μ = 0, σ = 3 と設定する。 0.62
3) MSE loss: For the reconstruction of illumination component, we only apply a simple MSE loss which is defined by the Euclidean distance between the L and ˆL: 3) MSE 損失:照明成分の再構成には、L と L の間のユークリッド距離によって定義される単純な MSE 損失のみを適用する。 0.84
(cid:13)(cid:13)(cid :13)L − ˆL (cid:13)(cid:13)(cid :13)2 (cid:13)(cid:13)(cid :13)L−1(cid:13)(cid:13)(ci d:13)2 0.36
2 Lmse = . 2 Lmse = . 0.43
(13) Constrained by the above loss terms, the content-related features and illumination-related features can be well extracted from the reflectance and illumination component, respectively. (13) 前記損失項に制約された内容関連特徴と照明関連特徴をそれぞれ反射成分と照明成分から適切に抽出することができる。 0.64
C. Bilinear Pooling Module c. バイリニアプーリングモジュール 0.65
We consider bilinear techniques to combine the reflectance and illumination feature representations into an unified one. 我々は,反射率と照明特徴表現を統一表現に結合するバイリニア手法を考える。 0.68
Bilinear models have shown powerful capability in modeling two-factor variations, such as style and content of images [45], location and appearance for fine-grained recognition [46], temporal and spatial aspects for video analysis [47], etc. バイリニアモデルでは,画像のスタイルやコンテンツ,きめ細かな認識のための位置や外観,映像解析のための時間的,空間的な側面など,2要素のバリエーションをモデル化する能力が示された [47]。 0.83
It also has been applied to address the BIQA problem where the synthetic and authentic distortions are modeled as the two-factor variations [48]. また、合成歪みと真正歪みを2要素変動[48]としてモデル化するBIQA問題にも適用されている。 0.70
Here, we tackle the blind NTIQE problem with a similar philosophy, where the reflectance and illumination components are modeled as the two-factor variations. ここでは、反射率と照明成分を2因子の変動としてモデル化する同様の哲学を用いて、ブラインドntiqe問題に取り組む。 0.71
Given an input NTI and its side output feature maps from the reflectance and illumination encoders, C R are both with the size of hi × wi × di since the reflectance i and illumination encoder share the same architectures and configurations. 入力ntiとそのサイド出力特徴マップが反射および照明エンコーダから与えられると、crは、反射iと照明エンコーダが同じアーキテクチャと構成を共有しているため、どちらもhi × wi × diの大きさである。 0.83
Before performing bilinear pooling, C R and i are separately fed into a 1 × 1 conv layer to obtain their i C L corresponding compact version with 32 channels ( ˆC R and i ), i.e., hi × wi × 32. バイリニアプーリングを行う前に、c r と i は別々に 1 × 1 conv 層に供給され、その ic l に対応するコンパクト版は 32 チャンネル ( \c r と i )、すなわち hi × wi × 32 となる。
訳抜け防止モード: バイリニアプーリングを行う前に、C R と i は分離して 1 × 1 の conv 層に供給され、32 チャンネル ( >C R と i ) のコンパクトバージョンに対応する i C L を得る。 i.e., hi × wi × 32。
0.81
Then, bilinear pooling is performed i ˆC L on C R 次に、c r 上の二線型プーリング i 〜c l を行う。 0.48
and C L i i and C L cl iは i と C の L 0.67
i as follows: 私は下記の通りです。 0.43
Bi = ( ˆC R bi = (\c r ) である。 0.55
i )T ˆC L i , i)T-C L i, 0.43
(14) where the outer product Bi is a vector of dimension 32 × 32. (14) ここで、外積 Bi は次元 32 × 32 のベクトルである。 0.58
According to [49], bilinear representation is usually mapped from Riemannian manifold into an Euclidean space using signed square root and (cid:96)2 normalization [50]: 49] によれば、双線型表現は通常リーマン多様体から符号付き平方根と (cid:96)2正規化 [50] を使ってユークリッド空間に写像される。 0.77
sign(Bi) (cid:12)(cid:112)|Bi| (cid:13)(cid:13)(cid :13)sign(Bi) (cid:12)(cid:112)|Bi|(cid:13)(cid:13)(cid :13)2 sign(Bi) (cid:12)(cid:112)|Bi| (cid:13)(cid:13)(cid :13)sign(Bi) (cid:12)(cid:112)|Bi|(cid:13)(cid:13)(cid :13) 0.37
2 , (12) ˆBi = 2 , (12) ニビ= 0.39
, (15) where (cid:12) means the element-wise product. , (15) ここで (cid:12) は要素単位積を意味する。 0.47
Finally, the bilinear pooled feature representations over all scales are concatenated into a single vector: 最後に、すべてのスケール上の双線型プーリング特徴表現は1つのベクトルに連結される。 0.71
ˆB = concat( ˆB1, ˆB2, ˆB3, ˆB4, ˆB5), B = concat( ~B1, ~B2, ~B3, ~B4, ~B5) 0.31
(16) Finally, ˆB is fed into two fully connected layers for quality prediction, which outputs a scalar indicating the overall quality score. (16) 最後は、品質予測のために2つの完全連結層に供給され、全体的な品質スコアを示すスカラーを出力する。 0.50
Here, we consider the (cid:96)2 norm as the empirical loss, which has been widely used in previous works: ここでは(cid:96)2ノルムを経験的損失と考える。
訳抜け防止モード: ここでは(cid:96)2ノルムを経験的損失と考える。 これまでの作品で広く使われてきました
0.69
Lquality = 1 K K(cid:88) 品位= 1K K(第88回) 0.46
k=1 (cid:13)(cid:13)(cid :13)Qk − ˆQk k=1 である。 (cid:13)(cid:13)(cid :13)Qk − sQk 0.35
(cid:13)(cid:13)(cid :13)2 (cid:13)(cid:13)(cid :13)2 0.38
2 , (17) where Qk is the ground truth subjective quality score of the kth image in a mini-batch and ˆQk is the predicted quality score by DDB-Net. 2 , (17) qkはミニバッチにおけるkth画像の主観的品質スコアであり、qkはddb-netによる予測品質スコアである。
訳抜け防止モード: 2 , (17) qk is the ground truth subjective quality score of the kth image in a mini - batch and sqk ddb - netによって予測される品質スコアです。
0.52
It is noteworthy that bilinear pooling is a global strategy and therefore our DDB-Net can receive the input image with an arbitrary size. バイリニアプールはグローバルな戦略であるため,我々のDDB-Netは任意のサイズで入力画像を受け取ることができる。 0.70
Consequently, we can directly feed the whole image instead of small patches cropped from it into network during both training and testing stages. その結果、トレーニングとテストの段階で小さなパッチではなく、イメージ全体を直接ネットワークに供給することが可能になった。 0.71
D. Network Training D.ネットワークトレーニング 0.92
The training of our proposed DDB-Net involves two stages: pre-training of image decomposition module and training of remaining modules. 提案するddb-netのトレーニングには,画像分解モジュールの事前トレーニングと残りのモジュールのトレーニングという2つのステージがある。 0.64
The pre-training of image decomposition module relies on 500 images pairs of the same scenes while with different light/exposure configurations 1. 画像分解モジュールの事前トレーニングは、同じシーンの500対の画像に依存し、光/露光構成が異なる。 0.71
Some examples are shown in Fig 5. いくつか例を図5に示します。 0.78
Once the image decomposition module is pre-trained, all the parameters of this module will not be updated during the training of remaining modules. イメージ分解モジュールが事前トレーニングされると、このモジュールのすべてのパラメータは、残りのモジュールのトレーニング中に更新されない。 0.83
Then, the training of remaining modules is based on the target NTI そして、残りのモジュールのトレーニングは、ターゲットNTIに基づいて行われる。 0.75
1Download: https://pan.baidu.co m/s/1ne0gugLmo9 ZnkVEZ3iYSg, pass- 1Download: https://pan.baidu.co m/s/1ne0gugLmo9 ZnkVEZ3iYSg, pass- 0.20
word: acsj (a) 単語:ACSJ (a) 0.50
(b) (c) (d) (b) (c) (d) 0.43
(e) (f) (g) (e) (f) (g) 0.43
(h) (h) 0.42
英語(論文から抽出)日本語訳スコア
quality database by minimizing the following hybrid loss function: 以下のハイブリッド損失関数の最小化による品質データベース 0.91
Ltotal = Lstr + Lcolor + Lmse + Lquality. Ltotal = Lstr + Lcolor + Lmse + Lquality 0.38
(18) All parameters of the image decomposition module are radomly initialized and we use the Adam optimization algorithm [51] with a mini-batch of 16. (18) 画像分解モジュールの全てのパラメータはランダムに初期化され、Adam最適化アルゴリズム[51]と16のミニバッチを使用する。 0.61
We run 100 epoches with a learning rate decaying in the interval [3× 10−3, 3× 10−4]. 学習速度は[3× 10−3, 3× 10−4]間隔で減衰する。 0.63
All the input images are resized into 512× 512× 3 before feeding into the network. すべての入力画像はネットワークに送信する前に512×512×3にリサイズされる。 0.74
For the training of the whole DDB-Net, we also adopt the Adam with a learning rate of 3 × 10−5 for the target NTI database and use Batch normalization to stabilize the training process. DDB-Net全体をトレーニングするために、ターゲットNTIデータベースに学習率3×10−5のAdamを採用し、Batch正規化を使用してトレーニングプロセスを安定化する。 0.71
The model is implemented by PyTorch [52] with a single NVIDIA GTX 2080Ti GPU card. モデルは1枚のnvidia gtx 2080ti gpuカードでpytorch [52]によって実装されている。 0.67
IV. EXPERIMENTAL RESULTS In this section, we first describe the experimental setups, including benchmark databases, evaluation protocols, and performance criteria. IV。 実験結果 本稿では,まずベンチマークデータベース,評価プロトコル,性能基準などの実験的な設定について述べる。 0.59
Then, we compare the performance of DDBNet with state-of-the-art BIQA models on each individual database. 次に,DDBNetの性能を各データベース上の最先端BIQAモデルと比較する。 0.74
Finally, we conduct several ablation studies to justify the rationality of each critical component involved in DDBNet and present an application test by applying the DDBNet to automatic parameter tuning of an off-the-shelf NTI enhancement algorithm. 最後に, ddbnetに含まれる各重要成分の合理性を正当化するためのアブレーション研究を行い, ddbnetを市販nti拡張アルゴリズムの自動パラメータチューニングに適用することにより, 応用試験を行う。 0.79
A. Experimental Setups a. 実験的なセットアップ 0.76
1) Benchmark Databases: The main experiments are conducted on the large-scale natural night-time image database (NNID) [25] which contains 2, 240 NTIs with 448 different image contents captured by three different photographic equipments (i.e., a digital camera (Device I: Nikon D5300), a mobile phone (Device II: iPhone 8plus) and a tablet (Device III: iPad mini2)) in real-world night-time scenarios. 1) ベンチマークデータベース: 主要な実験は大規模自然夜間画像データベース (nnid) [25] で行われ、実世界の夜間シナリオでは、2, 240 ntisと448の異なる画像コンテンツが3つの異なる写真機器(デバイスi: nikon d5300)、携帯電話(デバイスii: iphone 8plus)、タブレット(デバイスiii: ipad mini2)で撮影される。 0.77
For each image content, one device is used with five different settings to capture five images of different visual quality levels. それぞれの画像コンテンツに対して、1つのデバイスは5つの異なる設定で、異なる視覚的品質レベルの5つの画像をキャプチャする。
訳抜け防止モード: 画像コンテンツごとに、ひとつのデバイスが5つの異なる設定で使用される 視覚的品質の異なる5つの画像を捉えます
0.75
The five settings are different for different image contents. 5つの設定は、画像の内容によって異なる。 0.72
In NNID, 1, 400 images with 280 different image contents are captured by Nikon D5300, 640 images with 128 different image contents are captured by iPhone 8plus, and 200 images with 40 different image contents are captured by iPad mini2. NNIDでは、ニコンD5300で1,400枚の画像が撮影され、128枚の画像が640枚の画像がiPhone 8プラスで撮影され、40枚の画像が200枚の画像がiPad mini2で撮影されている。 0.51
The resolutions of the images in NNID include 512 × 512, 1024 × 1024, and 2048 × 2048. nnidの画像の解像度は512×512、1024×1024、2048×2048である。
訳抜け防止モード: NNIDの画像の解像度は512×512である。 1024 × 1024 , and 2048 × 2048 .
0.83
The ground truth subjective quality score, i.e., mean opinion score (MOS), is also provided for each image in the database. また、データベース内の各画像に対して、基本真理主観的品質スコア、すなわち平均世論スコア(MOS)も提供される。 0.75
Besides the NNID database, we also use an additional enhanced night-time image database (EHND) 2 for further performance evaluation. NNIDデータベースの他に、さらなる性能評価のために拡張夜間画像データベース(EHND)2を用いる。 0.69
Different from the NNID database which only contains raw NTIs, the EHND database contains both raw NTIs and their corresponding enhanced versions by different NTI enhancement algorithms. 生のNTIのみを含むNNIDデータベースとは異なり、EHNDデータベースは生のNTIと、異なるNTI拡張アルゴリズムによって対応する拡張バージョンの両方を含む。 0.82
Specifically, EHND contains a total number of 1, 500 images obtained by applying 15 off-the-shelf NTI enhancement algorithms on 100 raw NTIs. 具体的には、100個の生のNTIに15個のオフザシェルフNTIエンハンスメントアルゴリズムを適用して得られた1,500枚の画像を含む。 0.61
Similarly, the ground truth subjective quality score, i.e., mean opinion score (MOS), for each enhanced NTI is also available. 同様に、各強化NTIに対する基本真理主観的品質スコア、すなわち平均評価スコア(MOS)も利用可能である。 0.71
2https://sites.googl e.com/site/xiangtaoo o/ 2https://sites.googl e.com/site/xiangtaoo o/ 0.15
7 2) Evaluation Protocols and Performance Criteria: We conduct experiments by following the general evaluation protocol adopted in existing learning-based BIQA studies. 7 2)評価プロトコルと性能基準:既存のBIQA研究で採用されている一般的な評価プロトコルに従って実験を行う。 0.62
Specifically, we divide all the images in each individual database into two splits with the 80% − 20% train-test ratio. 具体的には、各データベース内のすべてのイメージを、80%から20%のトレインテスト比で2つの分割に分割する。 0.70
The splitting is conducted according to source images to guarantee that there is no overlap of image content. 分割は、画像コンテンツの重複がないことを保証するために、ソース画像に従って行われる。 0.75
The training and testing procedures are repeated five times on each database so that each image can be tested for once. トレーニングとテストの手順は、各データベース上で5回繰り返され、各イメージを一度にテストすることができる。 0.78
For each time, we compute four criteria to measure the model performance. 毎回、モデル性能を測定するための4つの基準を計算します。 0.70
The four performance criteria include Pearson linear correlation coefficient (PLCC), Spearman rank order correlation coefficient (SRCC), Kendall rank order correlation coefficient (KRCC), and root mean square error (RMSE). 4つの性能基準は,Pearson linear correlation coefficient (PLCC), Spearman rank order correlation coefficient (SRCC), Kendall rank order correlation coefficient (KRCC), root mean square error (RMSE)である。 0.79
Among these criteria, PLCC and RMSE measure the prediction precision while SRCC and KRCC measure the prediction monotonicity. これらの基準の中で、PLCCとRMSEは予測精度を測定し、SRCCとKRCCは予測単調性を測定する。 0.65
These criteria results from the five sessions are calculated respectively and averaged to serve as the final model performance. これら5セッションの基準値をそれぞれ算出し、最終モデルのパフォーマンスとして平均化する。 0.74
B. Performance Comparisons Since there is always no available pristine reference for real-world NTIs, the quality evaluation of NTIs can only be performed in a no-reference/blind manner. B.性能比較 実世界のNITにはプリスタン参照が常に存在しないため、NTIの品質評価は非参照/盲検方式でのみ行うことができる。 0.75
Therefore, we compare the performance of the proposed DDB-Net against 15 existing BIQA methods, including 12 handcraft featurebased BIQA methods (i.e., BLIINDS-II [7], BRISQUE [8], CurveletQA [9], DIIVINE [10], NRSL [11], NFERM [12], GM-LOG [13], GWH-GLBP [14], SSEQ [15], BIQME [16], ILNIQE [17], NIQE [18], and BNBT [25]) and two popular deep learning-based BIQA methods (i.e., WaDIQaM [35] and DBCNN [36]). そこで,提案したDDB-Netは,12種類のBIQA手法 (BLIINDS-II [7], BRISQUE [8], CurveletQA [9], DiIVINE [10], NRSL [11], NFERM [12], GM-LOG [13], GWH-GLBP [14], SSEQ [15], BIQME [16], ILNIQE [17], NIQE [18], BNBT [25]) を含む既存のBIQA手法と比較した。
訳抜け防止モード: そこで提案したDDB-Netの性能を15の既存BIQA法と比較した。 12の手工芸の特徴に基づくBIQAメソッド(BLIINDS - II [ 7 ])を含む。 BRISQUE [8 ], CurveletQA [9 ], DiIVINE [10 ] NRSL [ 11 ], NFERM [ 12 ], GM - LOG [ 13 ], GWH - GLBP [14 ], SSEQ [15 ] BIQME [16 ],ILNIQE [17 ],NIQE [18 ] BNBT [25 ]) と2つの人気のあるディープラーニング - ベースBIQAメソッド(すなわち,BIQAメソッド)。 WaDIQaM [35 ] と DBCNN [36 ] )。
0.80
The handcraft feature-based BIQA methods include two types: training-based and training-free. ハンドクラフト機能ベースのBIQAメソッドには、トレーニングベースとトレーニングフリーの2つのタイプがある。 0.49
The trainingbased ones commonly adopt elaborately designed features to characterize the level of deviations from statistical regularities of natural scenes, based on which a quality prediction function is learned via supprot vector regression (SVR) [53]. トレーニングベースでは,高次ベクトル回帰(SVR)[53]を用いて品質予測関数が学習される自然シーンの統計的規則性から逸脱のレベルを特徴付けるために,精巧に設計された特徴が一般的である。 0.79
The training-free ones first build a pristine statistical model from a large collection of high-quality natural images and then measure the distance between this pristine statistical model and the statistical model of the distorted image as the estimated quality score. トレーニングフリーの者は、まず、高品質な自然画像の集合からプリスタン統計モデルを構築し、次に、このプリスタン統計モデルと歪んだ画像の統計モデルとの距離を推定品質スコアとして測定する。 0.71
By contrast, the deep learning-based BIQA methods directly optimize an end-to-end function mapping from the input image to its quality score while without any effort on manual feature engineering. 対照的に、深層学習に基づくBIQA手法は、手動のフィーチャエンジニアリングを使わずに、入力画像から品質スコアへのエンドツーエンドの関数マッピングを直接最適化する。 0.76
1) Comparisons on NNID: The performance comparison results of different BIQA methods on the NNID database are shown in Table I. From the results, we can have the following observations. 1) NNIDの比較: NNIDデータベース上の異なるBIQA法の性能比較結果を表Iに示す。
訳抜け防止モード: 1) NNIDの比較 : NNIDデータベース上の異なるBIQA法の性能比較結果を表Iに示す。 以下の結果が得られます
0.64
First, most training-based BIQA models perform better than the two training-free ones (i.e., NIQE and ILNIQE) while the two deep learning-based BIQA models (i.e., WaDIQaM and DBCNN) are superior to most handcraft feature-based BIQA methods. 第一に、ほとんどのトレーニングベースのBIQAモデルは2つのトレーニングフリーモデル(NIQEとILNIQE)より優れているが、深層学習ベースのBIQAモデル(WaDIQaMとDBCNN)は、ほとんどの手作業による機能ベースのBIQAよりも優れている。 0.64
It is reasonable because BIQA is a challenging task where training is particularly useful to model the complex non-linear relationship between the extracted features and perceived quality score, and end-to-end deep learning technique further provides an effective solution image-to-quality mapping to directly establish the explicit BIQAは、抽出された特徴と知覚された品質スコアとの間の複雑な非線形関係をモデル化するのに特に有用である難題であり、また、エンドツーエンドのディープラーニング技術は、より効果的に画像から品質へのマッピングを提供し、明示的な特徴を直接確立する。 0.55
英語(論文から抽出)日本語訳スコア
8 PERFORMANCE RESULTS OF DIFFERENT BIQA METHODS ON THE NNID DATABASE. 8 ニューラルネットワークデータベースにおける異なるバイカ法の性能評価 0.48
TABLE I Methods Entire Database (2240 images) テーブルI 方法 全データベース(2240画像) 0.54
Device I: Nikon D5300 (1400 images) デバイスI:Nikon D5300(1400枚) 0.84
Device II: iPhone 8plus (640 images) デバイスII:iPhone 8プラス(640枚) 0.79
Device III: iPad mini2 (200 images) デバイスIII:iPad mini2(200枚) 0.83
SRCC KRCC PLCC SRCC KRCC PLCC 0.42
RMSE SRCC KRCC RMSE SRCC KRCC 0.42
PLCC RMSE SRCC KRCC PLCC RMSE SRCC KRCC 0.42
PLCC RMSE SRCC KRCC PLCC RMSE SRCC KRCC 0.42
PLCC RMSE BLIINDS-II PLCC RMSE BLIINDS-II 0.38
0.7438 0.5403 0.7438 0.5403 0.29
0.7549 0.1119 0.7549 0.1119 0.29
0.7520 0.5461 0.7520 0.5461 0.29
0.7627 0.1108 0.7627 0.1108 0.29
0.6419 0.4564 0.6419 0.4564 0.29
0.6574 0.1103 0.6574 0.1103 0.29
0.6777 0.5048 0.6777 0.5048 0.29
0.7333 0.0892 0.7333 0.0892 0.29
BRISQUE 0.7365 BRISQUE 0.7365 0.36
0.5352 0.7452 0.5352 0.7452 0.29
0.1132 0.7315 0.1132 0.7315 0.29
0.5332 0.7420 0.5332 0.7420 0.29
0.1150 0.6445 0.1150 0.6445 0.29
0.4598 0.6652 0.4598 0.6652 0.29
0.1091 0.5704 0.1091 0.5704 0.29
0.4166 0.6431 0.4166 0.6431 0.29
0.0980 CurveletQA 0.0980 CurveletQA 0.36
0.8676 0.6762 0.8676 0.6762 0.44
0.8679 0.0924 0.8679 0.0924 0.44
0.8937 0.7115 0.8937 0.7115 0.29
0.8953 0.0844 0.8953 0.0844 0.29
0.8110 0.6147 0.8110 0.6147 0.29
0.8183 0.0916 0.8183 0.0916 0.29
0.7712 0.5881 0.7712 0.5881 0.29
0.8217 0.0889 0.8217 0.0889 0.29
DIIVINE 0.7744 ジビン 0.7744 0.30
0.5675 0.7637 0.5675 0.7637 0.29
0.1092 0.7601 0.1092 0.7601 0.29
0.5545 0.7330 0.5545 0.7330 0.29
0.1178 0.6830 0.1178 0.6830 0.29
0.4793 0.5844 0.4793 0.5844 0.29
0.1187 0.6661 0.1187 0.6661 0.29
0.4698 0.6491 0.4698 0.6491 0.29
0.0998 NRSL 0.0998 NRSL 0.36
0.8291 0.6265 0.8291 0.6265 0.29
0.8327 0.0936 0.8327 0.0936 0.29
0.8165 0.6131 0.8165 0.6131 0.29
0.8192 0.0981 0.8192 0.0981 0.29
0.7417 0.5417 0.7417 0.5417 0.29
0.7325 0.1007 0.7325 0.1007 0.29
0.6625 0.4848 0.6625 0.4848 0.29
0.6903 0.0966 0.6903 0.0966 0.29
NFERM 0.8512 NFERM 0.8512 0.36
0.6572 0.8556 0.6572 0.8556 0.29
0.1099 0.8706 0.1099 0.8706 0.29
0.6803 0.8764 0.6803 0.8764 0.29
0.1110 0.8122 0.1110 0.8122 0.29
0.6146 0.8224 0.6146 0.8224 0.29
0.1257 0.7610 0.1257 0.7610 0.29
0.5727 0.7882 0.5727 0.7882 0.29
0.1231 GM-LOG 0.1231 GM-LOG 0.29
0.8114 0.6072 0.8114 0.6072 0.29
0.8125 0.0985 0.8125 0.0985 0.29
0.8135 0.6099 0.8135 0.6099 0.29
0.8171 0.0992 0.8171 0.0992 0.29
0.7338 0.5338 0.7338 0.5338 0.29
0.7313 0.0998 0.7313 0.0998 0.29
0.6996 0.5117 0.6996 0.5117 0.29
0.7107 0.0951 0.7107 0.0951 0.29
GWH-GLBP 0.7111 GWH-GLBP 0.7111 0.29
0.5108 0.7098 0.5108 0.7098 0.29
0.1350 0.6998 0.1350 0.6998 0.29
0.5020 0.6819 0.5020 0.6819 0.29
0.1382 0.6383 0.1382 0.6383 0.29
0.4731 0.6174 0.4731 0.6174 0.29
0.1614 0.6244 0.1614 0.6244 0.29
0.4547 0.7071 0.4547 0.7071 0.29
0.1343 SSEQ 0.1343 sseq 0.42
0.7838 0.5894 0.7838 0.5894 0.29
0.7865 0.1144 0.7865 0.1144 0.29
0.7809 0.5878 0.7809 0.5878 0.29
0.7891 0.1258 0.7891 0.1258 0.29
0.6735 0.4919 0.6735 0.4919 0.29
0.6968 0.1451 0.6968 0.1451 0.29
0.6673 0.4617 0.6673 0.4617 0.29
0.6436 0.1689 0.6436 0.1689 0.44
BIQME 0.8255 BIQME 0.8255 0.36
0.6185 0.8273 0.6185 0.8273 0.29
0.0911 0.8189 0.0911 0.8189 0.29
0.6141 0.8245 0.6141 0.8245 0.29
0.0913 0.8140 0.0913 0.8140 0.29
0.6144 0.8027 0.6144 0.8027 0.29
0.0972 0.7935 0.0972 0.7935 0.29
0.6064 0.7905 0.6064 0.7905 0.29
0.1005 BNBT 0.1005 BNBT 0.36
0.8769 0.6822 0.8769 0.6822 0.29
0.8784 0.1061 0.8784 0.1061 0.29
0.8866 0.7066 0.8866 0.7066 0.29
0.8939 0.1020 0.8939 0.1020 0.29
0.8632 0.6737 0.8632 0.6737 0.29
0.8698 0.1157 0.8698 0.1157 0.29
0.8517 0.6890 0.8517 0.6890 0.29
0.8576 0.1137 0.8576 0.1137 0.44
ILNIQE 0.7115 イルニキー 0.7115 0.28
0.5183 0.6335 0.5183 0.6335 0.29
0.1691 0.6712 0.1691 0.6712 0.29
0.4831 0.6766 0.4831 0.6766 0.29
0.1679 0.6949 0.1679 0.6949 0.29
0.5018 0.6809 0.5018 0.6809 0.29
0.1639 0.7983 0.1639 0.7983 0.29
0.6086 0.6721 0.6086 0.6721 0.29
0.1720 NIQE 0.1720 NIQE 0.57
0.5983 0.4220 0.5983 0.4220 0.29
0.5701 0.1803 0.5701 0.1803 0.29
0.6007 0.4240 0.6007 0.4240 0.29
0.5859 0.1847 0.5859 0.1847 0.29
0.5772 0.4017 0.5772 0.4017 0.29
0.5874 0.1811 0.5874 0.1811 0.29
0.6591 0.4694 0.6591 0.4694 0.29
0.6092 0.1842 0.6092 0.1842 0.29
WaDIQaM 0.8272 WaDIQaM 0.8272 0.36
0.6213 0.8229 0.6213 0.8229 0.29
0.0954 0.8127 0.0954 0.8127 0.29
0.6258 0.8263 0.6258 0.8263 0.29
0.0895 0.8194 0.0895 0.8194 0.29
0.6017 0.8101 0.6017 0.8101 0.29
0.0952 0.8069 0.0952 0.8069 0.29
0.6048 0.8016 0.6048 0.8016 0.29
0.0937 DBCNN 0.0937 DBCNN 0.36
0.8938 0.6953 0.8938 0.6953 0.29
0.8958 0.0849 0.8958 0.0849 0.29
0.8745 0.6779 0.8745 0.6779 0.29
0.8826 DDB-Net 0.8826 DDB-Net 0.29
0.9275 0.7841 0.9275 0.7841 0.29
0.9284 0.0752 0.9284 0.0752 0.29
0.9146 0.7828 0.9146 0.7828 0.29
0.9183 0.0843 0.9183 0.0843 0.44
0.0774 0.8704 0.0774 0.8704 0.29
0.6738 0.8796 0.6738 0.8796 0.29
0.0852 0.8526 0.0852 0.8526 0.29
0.6539 0.8614 0.6539 0.8614 0.29
0.0893 0.8901 0.0893 0.8901 0.29
0.7635 0.8928 0.7635 0.8928 0.29
0.0813 0.8857 0.0813 0.8857 0.29
0.7542 0.8796 0.7542 0.8796 0.29
0.0837 Fig. 6. 0.0837 図6。 0.44
Scatter plots between the objective scores (predicted by BIQA methods) and the subjective MOSs (provided in the NNID database). 対象スコア(BIQA法で予測される)と主観的MOS(NNIDデータベースで提供される)の間の散乱プロット。 0.72
(a)-(o) correspond to BLIINDS-II [7], BRISQUE [8], CurveletQA [9], DIIVINE [10], NRSL [11], NFERM [12], GM-LOG [13], GWH-GLBP [14], SSEQ [15], BIQME [16], ILNIQE [17], NIQE [18], WaDIQaM [35], DBCNN [36], and DDB-Net, respectively. (a)-(o) はそれぞれ bliinds-ii [7], brisque [8], curveletqa [9], diivine [10], nrsl [11], nferm [12], gm-log [13], gwh-glbp [14], sseq [15], biqme [16], ilniqe [17], niqe [18], wadiqam [35], dbcnn [36], ddb-net に対応する。
訳抜け防止モード: (a)-(o ) は bliinds - ii [ 7 ] に対応する brisque [8 ], curveletqa [9 ], diivine [10 ], nrsl [ 11 ], nferm [ 12 ], gm - log [ 13 ], gwh - glbp[14], sseq[15], biqme (三人称単数 現在形 biqme, 現在分詞 biqme, 過去形および過去分詞形 biqme, 過去形および過去分詞形 biqme, 過去形および過去分詞形 biqme, 過去形および過去分詞形 biqme, 過去形および過去分詞形 biqme, 過去形および過去分詞形 biqme, 過去形 wadiqam [ 35 ], dbcnn [ 36 ], ddb - net。
0.35
function owing to its powerful capacity of automatic feature representation learning. 自動特徴表現学習の強力な能力によって機能する。 0.85
Second, the existing NSS featurebased BIQA cannot obtain satisfactory results for evaluating NTIs as NSS is not that suitable to characterize the degradation 第二に、既存のNAS特徴量に基づくBIQAは、NASとしてNTIを評価するのに十分な結果を得ることができない。 0.45
properties of in-the-wild NTIs. in-the-wild ntisの特性 0.48
Third, the proposed DDBNet delivers the best performance among all the competitors in terms of all performance criteria, i.e., the highest PLCC, SRCC, KRCC values and the lowest RMSE value. 第3に、提案されたDDBNetは、すべてのパフォーマンス基準(PLCC、SRCC、KRCC値、RMSE値)において、すべての競合製品の中で最高のパフォーマンスを提供する。 0.57
The reason (k) (l) 理由は (k) (l) 0.52
(m) (n) (o) (m) (n) (o) 0.43
(a) (b) (c) (a) (b) (c) 0.43
(d) (e) (f) (d) (e) (f) 0.43
(g) (h) (i) (g) (h) (i) 0.43
(j) (j) 0.42
英語(論文から抽出)日本語訳スコア
PERFORMANCE RESULTS OF DIFFERENT BIQA METHODS ON THE EHND ehndにおける異なるbiqa手法の性能評価 0.49
TABLE II DATABASE. テーブルII データベース。 0.59
9 Methods BLIINDS-II BRISQUE CurveletQA DIIVINE 9 BLIINDS-II BRISQUE CurveletQA DiIVINE 0.42
NRSL NFERM GM-LOG NRSLNFERMGM-LOG 0.31
GWH-GLBP SSEQ BIQME ILNIQE NIQE GWH-GLBP SseQ BIQME ILNIQE NIQE 0.33
WaDIQaM DBCNN DDB-Net WaDIQaM DBCNN DDB-Net 0.39
SRCC (↑) KRCC (↑) 0.7168 0.7021 0.7525 0.6868 0.7853 0.7546 0.7915 0.7235 0.7012 0.6916 0.3815 0.2723 0.7528 0.7935 0.8647 SRCC (↑) KRCC (↑) 0.7168 0.7021 0.7525 0.6868 0.7853 0.7546 0.7915 0.7235 0.7012 0.6916 0.3815 0.2723 0.7528 0.7935 0.8647 0.26
0.5016 0.5077 0.5743 0.4750 0.5845 0.5683 0.5947 0.5074 0.5135 0.4847 0.2145 0.1839 0.5843 0.6442 0.6852 0.5016 0.5077 0.5743 0.4750 0.5845 0.5683 0.5947 0.5074 0.5135 0.4847 0.2145 0.1839 0.5843 0.6442 0.6852 0.20
PLCC (↑) 0.7026 0.6907 0.7624 0.6216 0.7812 0.7532 0.7794 0.7196 0.6981 0.7174 0.4637 0.3125 0.7598 0.8051 0.8748 PLCC (↑) 0.7026 0.6907 0.7624 0.6216 0.7812 0.7532 0.7794 0.7196 0.6981 0.7174 0.4637 0.3125 0.7598 0.8051 0.8748 0.24
RMSE (↓) 0.7383 0.7424 0.6931 0.7593 0.6241 0.6831 0.6325 0.7240 0.7383 0.7063 0.8034 0.8279 0.6865 0.6234 0.6057 RMSE (↓) 0.7383 0.7424 0.6931 0.7593 0.6241 0.6831 0.6325 0.7240 0.7383 0.7063 0.8034 0.8279 0.6865 0.6234 0.6057 0.24
Fig. 8. Significance t-test results on EHND. 図8。 EHNDにおけるt-testの意義 0.60
In the figure, 1/-1 indicates that row models perform statistically better/worse than the column models. 図1/1は、列モデルがカラムモデルよりも統計的に良い/低いパフォーマンスを示す。 0.75
the most performance results of different BIQA methods on the EHND database are shown in Table II and the significance t-test results are shown in Fig 8. 一番多いのは EHNDデータベース上の異なるBIQA法の性能結果を表IIに示し、その重要度t-testの結果を図8に示す。 0.66
It is observed from these results that our proposed DDB-Net outperforms other competitors by a large margin in terms of all performance criteria on the EHND database. これらの結果から,提案するDDB-Netは,EHNDデータベースにおける性能基準のすべてにおいて,他の競合よりはるかに優れていることがわかった。 0.72
In this case, important role of NTIQE is to automatically select the one with the highest visual quality from 15 enhanced results generated from the same NTI. この場合は NTIQEの重要な役割は、同じNTIから生成された15の強化結果から、最も視覚的品質の高いものを自動的に選択することである。
訳抜け防止モード: この場合は NTIQEの重要な役割は 同じNTIから生成された15の強化結果から、最も視覚的品質の高いものを自動的に選択する。
0.66
Therefore, it is of great interests to conduct experiments to further compare such a kind of capability of different BIQA methods. したがって、異なるBIQA法のそのような能力をさらに比較するために実験を行うことは大きな関心事である。 0.75
Specifically, we measure the rank-n accuracy which is closely relevant with the capability of a certain objective quality metric in selecting the optimal enhanced result from a set of candidates. 具体的には、候補群から最適な強化結果を選択する際に、ある客観的品質指標の能力と密接な関係を持つランクnの精度を測定する。 0.75
Given 15 different enhanced results associated with the same raw NTI, the rank-n accuracy is defined as the percentage of images whose top-1 result in terms of MOS 同じ生のNTIに関連する15の強化結果が与えられた場合、ランクnの精度は、MOSの観点でトップ-1の結果が得られた画像の割合として定義される。 0.63
Fig. 7. Significance t-test results on NNID. 第7話。 NNIDにおけるt-testの意義 0.52
In the figure, 1/-1 indicates that row models perform statistically better/worse than the column models. 図1/1は、列モデルがカラムモデルよりも統計的に良い/低いパフォーマンスを示す。 0.75
is that we have dedicated decomposing the sophisticated blind NTIQE task into two easier sub-tasks with each sub-task accounting for illumination perception and content perception, respectively. 高度な盲目NTIQEタスクを2つの簡単なサブタスクに分解し、各サブタスクが照明知覚とコンテンツ知覚にそれぞれ対応していること。 0.66
In such a way, the features related to the illumination perception and the content perception can be better learned and finally fused to facilitate blind NTIQE. このようにして、照明知覚とコンテンツ知覚に関する特徴をよりよく学習し、最終的に融合し、盲目のntiqeを促進することができる。 0.66
In addition to the numerical performance results, we also show the scatter plots between the objective scores (predicted by BIQA methods) and the subjective MOSs (provided in the database) in Fig 6. また, 数値計算結果に加えて, 客観的スコア (biqa法で推定される) と主観的moss (データベースで提示される) との間の散乱プロットを図6で示す。 0.72
In the scatter plot, each point corresponds to an image in the NNID database and the x-axis represents the prediction scores by BIQA methods while the y-axis represents the ground truth subjective MOSs. 散乱プロットにおいて、各点はNNIDデータベース内の画像に対応し、x軸はBIQA法による予測スコアを表し、y軸は基底真理主観的MOSを表す。 0.72
A good BIQA method is expected to produce scatter points that are close to the fitted curve. 優れたBIQA法は, 適合曲線に近い散乱点を生成することが期待される。 0.76
It can be easily found from Fig 6 that the proposed DDB-Net produces the best fitting result on the NNID database. 提案した DDB-Net が NNID データベース上で最適な結果をもたらすことは,図 6 から容易に分かる。 0.90
Finally, we use a hypothesis testing approach based on tstatistics [54] to further demonstrate the superiority of our proposed DDB-Net. 最後に,統計的[54]に基づく仮説テストアプローチを用いて,提案するddb-netの優位性をさらに実証する。 0.79
In our experiment, the two-sample ttest between the pair of PLCC values at the 5% significance level is conducted. 本実験では, PLCC値のペア間の2サンプル試験を5%の有意値で行った。 0.74
Fig 7 shows the results of t-test, where the value 1/-1 indicates that row models perform statistically better/worse than the column models. fig 7 は t-test の結果を示し、1/-1 の値は列モデルが列モデルよりも統計的に良い/低い結果を示す。 0.76
From the results, we find that our DDB-Net always performs better than all the other competitors, which further validates the superiority. 結果から、当社のddb-netは、他のすべての競合製品よりも常にパフォーマンスが良いことが分かりました。 0.64
2) Comparisons on EHND: A well-performing NTIQE should also be able to measure the performance of different NTI quality enhancement algorithms, i.e., well evaluate different enhanced results. 2)EHNDの比較: 優れたNTIQEは、異なるNTI品質向上アルゴリズムの性能、すなわち、異なる強化された結果を評価することもできる。 0.76
Actually, a certain enhancement algorithm may result in particularly bad enhanced result which may still suffer from unsatisfactory brightness and even more serious color distortions than the original raw NTI. 実際、ある拡張アルゴリズムは、元のntiよりも明るさが不十分で、さらに深刻な色歪に苦しむような、特に悪い拡張結果をもたらす可能性がある。 0.59
Therefore, we also evaluate the performance of different BIQA methods on another nighttime image database EHND which contains 1, 500 images obtained by applying 15 off-the-shelf NTI enhancement algorithms on 100 raw NTIs. そこで, 夜間画像データベースEHNDでは, 15個のオフザシェルフNTIエンハンスメントアルゴリズムを適用した1,500個の画像を含むBIQA法の性能評価を行った。 0.69
The numerical BLIINDS-IIBRISQUECur veletQADIIVINENRSLNF ERMGM-LOGGWH-GLBPSSE QBIQMEILNIQENIQEWaDI QaMDBCNNDDB-Net11-11 -1-1-1-1-1-111-11-11 -1111-1--1-1-1-1-1-1 -1-1-1-1-111-11111-1 11111111111111-11-11 1-11-1-1-1-1111-11-1 -1-1-111-111111-1111 -1-1-11-1-1-1-111-1- 11111-1-11-1-1-11111 -1-1-1-11-11111-1-1- 1-1-1111-1-1-1111111 111-1-111-1-1-1-1-1- 1-1-1-1-1-1-1-1--1-1 1-1-1-1-1-1-11-111-1 -1-1-1-1-1-1-1-1-11- 11-1-1-1-1-1-11-11-1 -1-1-1-1-111111111-1 -1-BLIINDS-IIBRISQUE CurveletQADIIVINENRS LNFERMGM-LOGGWH-GLBP SSEQBIQMEILNIQENIQEW aDIQaMDBCNNDDB-Net11 -11-11111111111-1111 11111111111111-1-1-1 -1-1-1-1-1-1-1-1-1-1 -1-1-1-1-1-1-1-11-1- 1-1-1-1-1-11-1-11-1- 1-1-11-11-1-11-1-1-1 -1-1-1111-1-1111111- 1-1-1--1-1-1-1-1-111 111-11111111-11-1-11 11111-11-1-1-111111- 11-1-1-1-111-11-11-1 -1-1-1--1111-11-1-1- 1-1-1-1-11-1-1-1-1-1 -1-1-1--1-1-1-1-1-1- 1-1-1-1-11111111-1-1 -11111-1-1--1-1-11-- 1-1-1111 数値 BLIINDS-IIBRISQUECur veletQADIIVINENRSLNF ERMGM-LOGGWH-GLBPSSE QBIQMEILNIQENIQEWaDI QaMDBCNNDDB-Net11-11 -1-1-1-1-1-111-11-11 -1111-1--1-1-1-1-1-1 -1-1-1-1-111-11111-1 11111111111111-11-11 1-11-1-1-1-1111-11-1 -1-1-111-111111-1111 -1-1-11-1-1-1-111-1- 11111-1-11-1-1-11111 -1-1-1-11-11111-1-1- 1-1-1111-1-1-1111111 111-1-111-1-1-1-1-1- 1-1-1-1-1-1-1-1--1-1 1-1-1-1-1-1-11-111-1 -1-1-1-1-1-1-1-1-11- 11-1-1-1-1-1-11-11-1 -1-1-1-1-111111111-1 -1-BLIINDS-IIBRISQUE CurveletQADIIVINENRS LNFERMGM-LOGGWH-GLBP SSEQBIQMEILNIQENIQEW aDIQaMDBCNNDDB-Net11 -11-11111111111-1111 11111111111111-1-1-1 -1-1-1-1-1-1-1-1-1-1 -1-1-1-1-1-1-1-11-1- 1-1-1-1-1-11-1-11-1- 1-1-11-11-1-11-1-1-1 -1-1-1111-1-1111111- 1-1-1--1-1-1-1-1-111 111-11111111-11-1-11 11111-11-1-1-111111- 11-1-1-1-111-11-11-1 -1-1-1--1111-11-1-1- 1-1-1-1-11-1-1-1-1-1 -1-1-1--1-1-1-1-1-1- 1-1-1-1-11111111-1-1 -11111-1-1--1-1-11-- 1-1-1111 0.24
英語(論文から抽出)日本語訳スコア
10 Fig. 9. Comparison of the rank-1, rank-2, rank-3, rank-4, and rank-5 accuracy values by different BIQA methods on the EHND database. 10 第9話。 EHNDデータベース上の異なるBIQA法によるランク1,ランク2,ランク3,ランク4,ランク5の精度の比較を行った。 0.53
Fig. 10. Automatic parameter tuning of an off-the-shelf NTI quality enhancement algorithm using the proposed DDB-Net method. 第10話。 DDB-Net法を用いた市販NTI品質向上アルゴリズムの自動パラメータチューニング 0.53
Warmer color in the surface plot represents better visual quality. 表面の温かい色は、より視覚的な品質を表している。 0.61
appears within the top-n results in terms of objective predicted score. 客観的な予測スコアの点からトップnの結果に現れる。 0.67
Obviously, a higher rank-n accuracy value indicates a better performance of a certain NTIQE. 明らかに、高いランクn精度は、特定のNTIQEのより良い性能を示す。 0.70
In Fig 9, we show the rank-1, rank-2, rank-3, rank-4, and rank-5 accuracy values by different BIQA methods on the EHND database. 図9では、EHNDデータベース上で異なるBIQA法を用いてランク1、ランク2、ランク3、ランク4、ランク5の精度を示す。 0.67
It is observed that our DDB-Net always delivers highest rank-n accuracy values, indicating the best capability in selecting the one with the highest visual quality from a set of candidates. ddb-netは、常に最もランクnの精度の高い値を提供しており、候補群から最も視覚品質の高いものを選択するのに最適な能力を示しています。
訳抜け防止モード: DDB - Netは常に最高ランク - n の精度の値を提供しています。 候補者の中から最高の視覚的品質の人を選ぶ最高の能力を示す。
0.73
C. Application: Automatic Parameter Tuning of NTI Quality Enhancement Algorithm C. 応用:NTI品質向上アルゴリズムの自動パラメータ調整 0.84
An effective blind NTIQE should be able to well guide the optimization of NTI quality enhancement algorithms. 効果的なブラインドNTIQEは、NTI品質向上アルゴリズムの最適化をうまく導くことができる。 0.79
In this section, we demonstrate this idea by applying the proposed DDB-Net to automatic parameter tuning of off-the-shelf NTI quality enhancement algorithms. 本稿では,市販のNTI品質向上アルゴリズムの自動パラメータチューニングに提案したDDB-Netを適用することで,このアイデアを実証する。 0.75
There are always one or several parameters in NTI quality enhancement algorithms whose optimal values vary with contents. nti品質向上アルゴリズムには、常に1つまたは複数のパラメータがあり、最適な値は内容によって異なる。 0.61
It is challenging and time-consuming to handpick a set of parameters that work well for all image contents. すべての画像コンテンツでうまく機能するパラメータのセットを手で選択するのは困難で時間がかかります。 0.69
A well-performing blind NTIQE is able to replace the role of humans in this task, especially when the volume of images to be processed is particularly large. NTIQEは、特に処理対象の画像量が特に大きい場合には、このタスクにおける人間の役割を置き換えることができる。 0.68
Here, we use the LIME algorithm [55] as a representative example of NTI quality enhancement algorithm, which involves two tunable parameters g and l. ここでは、2つの可変パラメータ g と l を含む NTI 品質向上アルゴリズムの代表的な例として LIME アルゴリズム [55] を用いる。 0.89
The default values are: g = 0.6 and l = 0.2. デフォルト値は g = 0.6 と l = 0.2 である。 0.87
However, the visual quality of the final enhanced image is highly sensitive to these two parameters. しかし、最終的な強調画像の視覚品質は、これら2つのパラメータに対して非常に敏感である。 0.64
Fig 10 shows example images generated with different g and l values. fig 10は、gとlの異なる値で生成された例を示す。 0.64
In the figure, warmer color indicates better predicted quality of the corresponding enhanced image. 図中では、より暖かい色は、対応する強調画像の予測品質の向上を示す。 0.69
The corresponding scores predicted by our DDB-Net are also shown under each image. ddb-netによって予測される対応するスコアも各画像の下に表示される。 0.53
By varying g and l, we can obtain enhanced results with significantly different visual quality. g と l の変化により、視覚的品質が著しく異なる拡張結果が得られる。 0.76
For example, the two enhanced results in the left side of Fig 10 still suffers from over-/under exposure problem while the two enhanced results in the right side exhibits much better visual quality with much more finer details and natural color appearance. 例えば、fig 10の左側の2つの強化された結果は、まだ露出の過度/アンダーの問題に苦しんでいる一方、右側の2つの強化された結果は、より詳細で自然な色相を持つ、より優れた視覚品質を示している。 0.59
It is found that our DDB-Net can evaluate their visual qualities consistently with human subjective perception. ddb-netは人間の主観的知覚と一貫してその視覚特性を評価できることが判明した。 0.60
Furthermore, we also find that the visual quality of the upper right image is better than that of the bottom right one which is さらに、右上像の視覚的品質が右下像の視覚的品質よりも優れていることも判明した。 0.65
produced by using the default parameter values. デフォルトパラメータ値を使用して生成される。 0.74
It means that it is possible to adaptively determine the optimal parameter values under the guidance of our proposed DDN-Net. これは,提案するddn-netの指導の下で最適パラメータ値を適応的に決定できることを意味する。 0.74
V. CONCLUSION V.コンキュレーション 0.76
This paper has presented a novel deep NTIQE called DDBNet which consists of three modules namely image decomposition module, feature encoding module, and bilinear pooling module. 本稿では,画像分解モジュール,特徴符号化モジュール,双線形プールモジュールという3つのモジュールからなる,DDBNetと呼ばれる新しいNTIQEを提案する。 0.84
With the help of decomposing the input NTI into two independent layer components (illumination and reflectance), the degradation features related to illumination perception and content perception are better learned and then fused with bilinear pooling to improve the performance of blind NTIQE. 入力ntiを2つの独立した層成分(照明と反射)に分解することで、照明知覚とコンテンツ知覚に関連する劣化特性をよりよく学習し、ビリニアプールと融合してブラインドntiqeの性能を向上させる。 0.76
Experiments on two benchmark databases have demonstrated the superiority of our proposed DDB-Net. 2つのベンチマークデータベースの実験は、提案したDDB-Netの優位性を実証した。 0.50
Although our proposed DDB-Net is promising, future works towards further impoving the performance may focus on the following directions: 提案したDDB-Netは有望だが、パフォーマンスをさらに損なうための今後の取り組みは以下の通りである。 0.59
1) designing more efficient unsuperivsed solutions for image layer decomposition; 1) 画像層分解のためのより効率的な非最適化ソリューションの設計 0.69
2) designing more effective loss functions to facilitate learning degradation features from each component; 2 より効果的な損失関数を設計し、各部品の劣化特性の学習を容易にする。 0.64
3) designing more powerful feature fusion schemes by considering other variants of bilinear pooling to further improve the performance. 3) 性能をさらに向上させるため, 双線型プーリングの他の変種を考慮し, より強力な機能融合スキームを設計する。 0.71
REFERENCES [1] G. Zhai and X. Min, “Perceptual image quality assessment: A survey,” Science China: Information Sciences, vol. 参考 [1]G.Zhai, X. Min, “Perceptual Image Quality Assessment: A survey”, Science China: Information Sciences, vol.
訳抜け防止モード: 参考 [1]g. zhai, x. min, "知覚的画像品質評価 : 調査" 科学中国 : 情報科学
0.56
63, no. 11, pp. 76–127, 11 2020. 63, no. 11 pp. 76–127, 2020。 0.79
[2] Y. Zhan and R. Zhang, “No-reference jpeg image quality assessment based on blockiness and luminance change,” IEEE Signal Processing Letters, vol. ieee signal processing letters, vol. “no-reference jpeg image quality assessment based on blockiness and luminance change”. [2] y. zhanとr. zhang。
訳抜け防止モード: [2 ]Y. Zhan, R. Zhang, “No- Reference jpeg Image Quality Assessment based on blockiness and luminance change” IEEE Signal Processing Letters , vol .
0.45
24, no. 6, pp. 760–764, 2017. 24 no. 6, pp. 760-764, 2017 頁。 0.83
[3] S. A. Golestaneh and D. M. Chandler, “No-reference quality assessment of jpeg images via a quality relevance map,” IEEE Signal Processing Letters, vol. s. a. golestanehとd. m. chandlerは、“品質関連マップによるjpeg画像の参照品質評価は行わない”、とieee signal processing letters, vol. は述べている。
訳抜け防止モード: [3 ]S.A.ゴレスタインとD.M.チャンドラーは「品質関連マップによるjpeg画像の基準品質評価」と評した。 IEEE Signal Processing Letters , vol .
0.80
21, no. 2, pp. 155–158, 2014. 21 no. 2, pp. 155–158, 2014年。 0.91
[4] K. Gu, G. Zhai, W. Lin, X. Yang, and W. Zhang, “No-reference image sharpness assessment in autoregressive parameter space,” IEEE Transactions on Image Processing, vol. K. Gu, G. Zhai, W. Lin, X. Yang, W. Zhang, “No-reference image sharpness Assessment in autoregressive parameters space”, IEEE Transactions on Image Processing, vol。
訳抜け防止モード: 4 ] k. gu, g. zhai, w. lin, x. yang, and w. zhang, "no - reference image sharpness assessment in autoregressive parameter space" ieeeは画像処理でトランザクションを処理します。
0.75
24, no. 10, pp. 3218–3231, 2015. 24 no. 10, pp. 3218-3231, 2015年。 0.87
[5] T. Oh, J. Park, K. Seshadrinathan, S. Lee, and A. C. Bovik, “No-reference sharpness assessment of camera-shaken images by analysis of spectral structure,” IEEE Transactions on Image Processing, vol. 5] t. oh, j. park, k. seshadrinathan, s. lee, a. c. bovik, “スペクトル構造の分析によるカメラシェーク画像の非参照シャープネス評価”。
訳抜け防止モード: 5 ] t. オ・j・パーク k・セシャドリナサン s. lee, and a. c. bovik, "no - reference sharpness assessment of camera - shaken images by analysis of spectral structure" ieeeは画像処理でトランザクションを処理します。
0.76
23, no. 12, pp. 5428–5439, 2014. 23, No. 12, pp. 5428–5439, 2014。 0.47
lgQQ= 0.8974Q= 0.6347Q= 0.6732Q= 0.8335 lgQ= 0.8974Q= 0.6347Q= 0.6732Q= 0.8335 0.16
英語(論文から抽出)日本語訳スコア
[6] C. Tang, X. Yang, and G. Zhai, “Noise estimation of natural images via statistical analysis and noise injection,” IEEE Transactions on Circuits and Systems for Video Technology, vol. IEEE Transactions on Circuits and Systems for Video Technology,vol.[6]C. Tang, X. Yang, G. Zhai, “Noise Estimation of natural image via statistics analysis and noise Injection”. IEEE Transactions on Circuits and Systems for Video Technology.
訳抜け防止モード: [6]c.唐、x.yang、g.zhai。 統計解析とノイズインジェクションによる自然画像の雑音推定 ieee transactions on circuits and systems for video technology, vol。
0.69
25, no. 8, pp. 1283–1294, 2015. 25 no. 8, pp. 1283-1294, 2015 頁。 0.82
[7] M. A. Saad, A. C. Bovik, and C. Charrier, “Blind image quality assessment: A natural scene statistics approach in the DCT domain,” IEEE Transactions on Image Processing, vol. M.A. Saad, A. C. Bovik, C. Charrier, “Blind Image Quality Assessment: A natural scene statistics approach in the DCT domain”, IEEE Transactions on Image Processing, Vol.
訳抜け防止モード: 【7 ]m.a.サード,a.c.ボヴィク, c. charrier, “ blind image quality assessment: a natural scene statistics approach in the dct domain” ieeeは画像処理でトランザクションを処理します。
0.75
21, no. 8, pp. 3339–3352, 2012. 21 no. 8, pp. 3339-3352, 2012 頁。 0.78
[8] A. Mittal, A. K. Moorthy, and A. C. Bovik, “No-reference image quality assessment in the spatial domain,” IEEE Transactions on Image Processing, vol. A. Mittal, A. K. Moorthy, A. C. Bovik, “No-reference image quality Assessment in the spatial domain, IEEE Transactions on Image Processing, vol.
訳抜け防止モード: [8 ] A. Mittal, A. K. Moorthy, A. C. Bovik, 「空間領域における基準画像品質評価」 IEEE Transactions on Image Processing , vol。
0.85
21, no. 12, pp. 4695–4708, 2012. 第21巻第12号, pp. 4695-4708, 2012。 0.56
[9] L. Liu, H. Dong, H. Huang, and A. C. Bovik, “No-reference image quality assessment in curvelet domain,” Signal Processing: Image Communication, vol. 9] L. Liu, H. Dong, H. Huang, A. C. Bovik, “No-reference image quality Assessment in curvelet domain”, Signal Processing: Image Communication, vol。
訳抜け防止モード: 9 ] l. liu, h. dong, h. huang, a.c. bovik氏, “no - reference image quality assessment in curvelet domain” 信号処理 : 画像通信, vol.
0.83
29, no. 4, pp. 494–505, 2014. 29, No. 4, pp. 494–505, 2014。 0.47
[10] A. K. Moorthy and A. C. Bovik, “Blind image quality assessment: From natural scene statistics to perceptual quality,” IEEE Transactions on Image Processing, vol. A. K. Moorthy, A. C. Bovik, “Blind Image Quality Assessment: From natural scene statistics to perceptual quality”, IEEE Transactions on Image Processing, vol.
訳抜け防止モード: 10 ] a.k.moorthy と a.c. bovik の「盲眼画像品質評価 : 自然景観統計から知覚品質まで」 ieeeは画像処理でトランザクションを処理します。
0.74
20, no. 12, pp. 3350– 3364, 2011. 20 no. 12 pp. 3350–3364, 2011年。 0.78
[11] Q. Li, W. Lin, J. Xu, and Y. Fang, “Blind image quality assessment using statistical structural and luminance features,” IEEE Transactions on Multimedia, vol. IEEE Transactions on Multimedia, vol. [11] Q. Li, W. Lin, J. Xu, Y. Fang, “Blind image quality Assessment using statistics structure and luminance features, IEEE Transactions on Multimedia, vol.
訳抜け防止モード: [11]Q.Li,W.Lin,J.Xu, そしてY.Fang氏は,“統計的構造と輝度特徴を用いたブラインド画像の品質評価”を行った。 IEEE Transactions on Multimedia , vol。
0.71
18, no. 12, pp. 2457– 2469, 2016. 18, no. 12 pp. 2457–2469, 2016年。 0.84
[12] K. Gu, G. Zhai, X. Yang, and W. Zhang, “Using free energy principle for blind image quality assessment,” IEEE Transactions on Multimedia, vol. IEEE Transactions on Multimedia, vol.[12] K. Gu, G. Zhai, X. Yang, W. Zhang, “Free Energy principle for blind image quality Assessment”. IEEE Transactions on Multimedia.
訳抜け防止モード: [12]K.Gu,G.Zhai,X.Yang, W. Zhangは曰く、“自由エネルギーの原則を使って画像のクオリティを評価する”。 IEEE Transactions on Multimedia , vol。
0.75
17, no. 1, pp. 50–63, 2015. 17, No. 1, pp. 50-63, 2015。 0.91
[13] W. Xue, X. Mou, L. Zhang, A. C. Bovik, and X. Feng, “Blind image quality assessment using joint statistics of gradient magnitude and Laplacian features,” IEEE Transactions on Image Processing, vol. 13] w. xue, x. mou, l. zhang, a. c. bovik, x. feng, “グラデーションサイズとラプラシアン特徴の合同統計を用いた画像品質アセスメント”。
訳抜け防止モード: [13 ]W. Xue, X. Mou, L. Zhang, A. C. Bovik, X. Fengは,「勾配等級とラプラシアン特徴の合同統計を用いたブラインド画像品質評価」と評した。 IEEE Transactions on Image Processing , vol。
0.82
23, no. 11, pp. 4850–4862, 2014. 23 no. 11, pp. 4850–4862, 2014 頁。 0.87
[14] Q. Li, W. Lin, and Y. Fang, “No-reference quality assessment for multiply-distorted images in gradient domain,” IEEE Signal Processing Letters, vol. Q. Li, W. Lin, Y. Fang, “No-reference quality Assessment for multiply-distorted images in gradient domain”, IEEE Signal Processing Letters, vol。
訳抜け防止モード: 14 ] q. li, w. lin, y. fang. 「勾配領域における多重歪画像に対する基準品質評価」 ieee 信号処理文字 , vol.
0.75
23, no. 4, pp. 541–545, 2016. 23 no. 4, pp. 541–545, 2016年。 0.90
[15] L. Liu, B. Liu, H. Huang, and A. C. Bovik, “No-reference image quality assessment based on spatial and spectral entropies,” Signal Processing: Image Communication, vol. L. Liu, B. Liu, H. Huang, A. C. Bovik, “No-reference image quality Assessment based on space and spectrum entropies”, Signal Processing: Image Communication, vol。
訳抜け防止モード: [15 ]L.Lu,B.Lu,H.Huang, そしてA・C・ボヴィクは「空間エントロピーとスペクトルエントロピーに基づく基準画像品質評価」と評した。 信号処理 : 画像通信, vol。
0.68
29, no. 8, pp. 856–863, 2014. 29, 8, pp. 856-863, 2014 頁。 0.72
[16] K. Gu, D. Tao, J. [16]K. Gu, D. Tao, J. 0.49
-F. Qiao, and W. Lin, “Learning a no-reference quality assessment model of enhanced images with big data,” IEEE Transactions on Neural Networks and Learning Systems, vol. -F。 qiao, and w. lin, “ビッグデータを用いた強化画像の参照なし品質評価モデルを学ぶ”と、ieee transactions on neural networks and learning systems, vol. は述べている。 0.58
29, no. 4, pp. 1301–1313, 2017. 29, No. 4, pp. 1301–1313, 2017。 0.45
[17] L. Zhang, L. Zhang, and A. C. Bovik, “A feature-enriched completely blind image quality evaluator,” IEEE Transactions on Image Processing, vol. A feature-enriched completely blind image quality evaluator, IEEE Transactions on Image Processing, vol.[17] L. Zhang, L. Zhang, A. C. Bovik。
訳抜け防止モード: [17 ] L. Zhang, L. Zhang, A. C. Bovik IEEE Transactions on Image Processing,vol.“機能 – 完全に盲目な画像品質評価器の強化”。
0.84
24, no. 8, pp. 2579–2591, 2015. 24, No. 8, pp. 2579–2591, 2015。 0.95
[18] A. Mittal, R. Soundararajan, and A. C. Bovik, “Making a “completely blind” image quality analyzer,” IEEE Signal Processing Letters, vol. [18] a. mittal, r. soundararajan, a. c. bovik, “making a completely blind” image quality analyzer”, ieee signal processing letters, vol.] (英語)
訳抜け防止モード: [18 ]A. Mittal, R. Soundararajan, A. C. Bovik 完全に盲目」な画像品質分析装置を作る」 IEEE Signal Processing Letters , vol .
0.81
20, no. 3, pp. 209–212, 2012. 20. 3, pp. 209-212, 2012 頁。 0.79
[19] Q. Li, W. Lin, and Y. Fang, “BSD: Blind image quality assessment based on structural degradation,” Neurocomputing, vol. Q. Li, W. Lin, Y. Fang, “BSD: 構造劣化に基づくブラインド画像の品質評価”, Neurocomputing, vol。 0.70
236, pp. 93–103, 2017. 236, pp. 93-103, 2017。 0.42
[20] P. Ye, J. Kumar, L. Kang, and D. Doermann, “Unsupervised feature learning framework for no-reference image quality assessment,” in 2012 IEEE Conference on Computer Vision and Pattern Recognition, 2012, pp. 1098–1105. P. Ye, J. Kumar, L. Kang, D. Doermann, “Unsupervised feature learning framework for no-reference image quality Assessment” in 2012 IEEE Conference on Computer Vision and Pattern Recognition, 2012 pp. 1098–1105。
訳抜け防止モード: [20]P.Ye,J.Kumar,L.Kang, そしてD. Doermann氏は,“No-Reference Image Qualityアセスメントのための教師なし機能学習フレームワーク”だ。 2012年IEEE Conference on Computer Vision and Pattern Recognition, 2012, pp. 1098–1105.
0.81
[21] J. Xu, P. Ye, Q. Li, H. Du, Y. Liu, and D. Doermann, “Blind image quality assessment based on high order statistics aggregation,” IEEE Transactions on Image Processing, vol. J.Xu, P. Ye, Q. Li, H. Du, Y. Liu, D. Doermann, “Blind image quality Assessment based on High order statistics aggregate, IEEE Transactions on Image Processing, vol.
訳抜け防止モード: [21 ]J.Xu,P.Ye,Q.Li, H. Du, Y. Liu, D. Doermann, “高次統計集計に基づくブラインド画像の品質評価”。 IEEE Transactions on Image Processing , vol。
0.81
25, no. 9, pp. 4444–4457, 2016. 25 no. 9, pp. 4444-4457, 2016年。 0.87
[22] Q. Jiang, F. Shao, G. Jiang, M. Yu, and Z. Peng, “Supervised dictionary learning for blind image quality assessment using quality-constraint sparse coding,” Journal of Visual Communication and Image Representation, 2015. 22] q. jiang, f. shao, g. jiang, m. yu, z. peng, “supervised dictionary learning for blind image quality assessment using quality-constraint sparse coding” journal of visual communication and image representation, 2015” (英語)
訳抜け防止モード: [22]Q.ジャン、F.シャオ、G.ジャン、 M. Yu, Z. Peng, “品質-制約スパースコーディングによる視覚的画像品質評価のための教師付き辞書学習”。 Journal of Visual Communication and Image Representation , 2015
0.77
[23] Q. Jiang, F. Shao, W. Lin, K. Gu, G. Jiang, and H. Sun, “Optimizing multistage discriminative dictionaries for blind image quality assessment,” IEEE Transactions on Multimedia, vol. Q. Jiang, F. Shao, W. Lin, K. Gu, G. Jiang, H. Sun, “多段階の識別辞書をブラインド画像の品質評価に最適化する”IEEE Transactions on Multimedia, Vol. 0.85
20, no. 8, pp. 2035–2048, 2018. 20.8、p.2035-2048、2018。 0.51
[24] Q. Wu, H. Li, F. Meng, K. N. Ngan, B. Luo, C. Huang, and B. Zeng, “Blind image quality assessment based on multichannel feature fusion and label transfer,” IEEE Transactions on Circuits and Systems for Video Technology, vol. [24] Q. Wu, H. Li, F. Meng, K. N. Ngan, B. Luo, C. Huang, B. Zeng, “Blind image quality Assessment based on multi channel feature fusion and label transfer, IEEE Transactions on Circuits and Systems for Video Technology, vol.
訳抜け防止モード: [24 ]Q. Wu, H. Li, F. Meng, K. N. Ngan, B. Luo, C. Huang, B. Zeng 「多チャンネル機能融合とラベル転送に基づくブラインド画像品質評価」 IEEE Transactions on Circuits and Systems for Video Technology, vol.
0.87
26, no. 3, pp. 11 26、p.3。 11 0.48
425–440, 2016. 425–440, 2016. 0.42
[25] T. Xiang, Y. Yang, and S. Guo, “Blind night-time image quality assessment: Subjective and objective approaches,” IEEE Transactions on Multimedia, vol. [25]T.Xiang,Y. Yang,S. Guo, “Blind night-time image quality Assessment: Subjective and objective approach”, IEEE Transactions on Multimedia, vol。
訳抜け防止モード: [25 ]T.Xiang、Y.Y.Yang、S.Guo 「盲夜-時間画像品質評価 : 主観的・客観的アプローチ」 IEEE Transactions on Multimedia , vol。
0.68
22, no. 5, pp. 1259–1272, 2020. 22 no. 5, pp. 1259-1272, 2020。 0.82
[26] J. McCann, Retinex Theory. J. McCann, Retinex Theory (英語) 0.67
New York, NY: Springer New New York, NY: Springer New 0.42
York, 2016, pp. 1118–1125. ヨーク、2016年、p.1118-1125。 0.53
[27] J. Wu, J. Zeng, Y. Liu, G. Shi, and W. Lin, “Hierarchical feature degradation based blind image quality assessment,” in Proceedings of the IEEE International Conference on Computer Vision, 2017, pp. 510–517. [27] j. wu, j. zeng, y. liu, g. shi, w. lin, “hierarchical feature degradation based blind image quality assessment” in the proceedings of the ieee international conference on computer vision, 2017 pp. 510–517. (英語)
訳抜け防止モード: [27 ]J.Wu,J.Zeng,Y.Lu, G. Shi, W. Lin, “階層的特徴劣化に基づくブラインド画像品質評価” In Proceedings of the IEEE International Conference on Computer Vision, 2017 510-517頁。
0.83
[28] K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016, pp. 770–778. [28] k. he, x. zhang, s. ren, and j. sun, “deep residual learning for image recognition” in the proceedings of the ieee conference on computer vision and pattern recognition, 2016 pp. 770–778. コンピュータビジョンとパターン認識に関する国際会議の議事録。 0.73
[29] Y. Li, L. [29]Y,Li,L。 0.40
-M. Po, L. Feng, and F. Yuan, “No-reference image quality assessment with deep convolutional neural networks,” in IEEE International Conference on Digital Signal Processing, 2016, pp. 685–689. -M。 Po, L. Feng, and F. Yuan, “No-reference image quality Assessment with Deep Convolutional Neural Network” in IEEE International Conference on Digital Signal Processing, 2016, pp. 685–689。
訳抜け防止モード: -M。 と、Po, L. Feng, F. Yuan氏は述べている。 IEEE International Conference on Digital Signal Processing, 2016, pp. 685–689.
0.48
[30] J. Deng, W. Dong, R. Socher, L. 30] j. deng, w. dong, r. socher, l. 0.39
-J. Li, K. Li, and L. FeiFei, “Imagenet: A large-scale hierarchical image database,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2009, pp. 248–255. -j。 Li, K. Li, and L. FeiFei, “Imagenet: A Large-scale hierarchical image database” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2009 pp. 248–255。 0.59
[31] L. Kang, P. Ye, Y. Li, and D. Doermann, “Convolutional neural networks for no-reference image quality assessment,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2014, pp. 1733–1740. L.Kang, P. Ye, Y. Li, D. Doermann, “Convolutional Neural Network for no-reference image quality Assessment” in Proceedings on the IEEE Conference on Computer Vision and Pattern Recognition, 2014 pp. 1733–1740。
訳抜け防止モード: [31 ]L.Kang,P.Y,Y.Li, そしてD. Doermannは、”畳み込みニューラルネットワークのノー参照画像品質評価”について語る。 IEEE Conference on Computer Vision and Pattern Recognition に参加して 2014 , pp . 1733–1740 .
0.82
[32] Y. Li, L. [32]Y,Li,L。 0.41
-M. Po, X. Xu, L. Feng, F. Yuan, C. -M。 Po, X. Xu, L. Feng, F. Yuan, C。 0.44
-H. Cheung, and K. -h。 チャン、K。 0.61
-W. Cheung, “No-reference image quality assessment with shearlet transform and deep neural networks,” Neurocomputing, vol. -W。 cheung, “no-reference image quality assessment with shearlet transform and deep neural networks”, neurocomputing, vol。 0.61
154, pp. 94–109, 2015. 154, pp. 94-109, 2015。 0.88
[33] X. Liu, J. van de Weijer, and A. D. Bagdanov, “Rankiqa: Learning from rankings for no-reference image quality assessment,” in Proceedings of the IEEE International Conference on Computer Vision, 2017, pp. 1040–1049. X. Liu, J. van de Weijer, A. D. Bagdanov, “Rankiqa: Learning from rankings for no-reference image quality Assessment” in Proceedings of the IEEE International Conference on Computer Vision, 2017 pp. 1040–1049。 0.42
[34] K. Ma, W. Liu, K. Zhang, Z. Duanmu, Z. Wang, and W. Zuo, “End-to-end blind image quality assessment using deep neural networks,” IEEE Transactions on Image Processing, vol. K. Ma, W. Liu, K. Zhang, Z. Duanmu, Z. Wang, W. Zuo, “End-to-end blind image quality Assessment using Deep Neural Network”, IEEE Transactions on Image Processing, vol。
訳抜け防止モード: [34 ] K. Ma, W. Liu, K. Zhang, Z. Duanmu, Z. Wang, W. Zuo氏は,“ディープニューラルネットワークによる視覚的品質評価の終端 - 終端 - 終端 - 終端)”と述べている。 IEEE Transactions on Image Processing , vol。
0.65
27, no. 3, pp. 1202–1213, 2017. 27 no. 3, pp. 1202-1213, 2017 頁。 0.41
[35] S. Bosse, D. Maniry, K. [35]S. Bosse, D. Maniry, K. 0.48
-R. M¨uller, T. Wiegand, and W. Samek, “Deep neural networks for no-reference and full-reference image quality assessment,” IEEE Transactions on Image Processing, vol. -R。 IEEE Transactions on Image Processing, vol., “Non-ReferenceとFull-Reference Image Quality Assessmentのためのディープニューラルネットワーク”だ。 0.52
27, no. 1, pp. 206–219, 2017. 27巻1頁、206-219頁、2017年。 0.57
[36] W. Zhang, K. Ma, J. Yan, D. Deng, and Z. Wang, “Blind image quality assessment using a deep bilinear convolutional neural network,” IEEE Transactions on Circuits and Systems for Video Technology, vol. [36] w. zhang, k. ma, j. yan, d. deng, z. wang, “ディープバイリニア畳み込みニューラルネットワークを用いた画像品質評価” ieee transactions on circuits and systems for video technology, vol.)。
訳抜け防止モード: [36 ] W. Zhang, K. Ma, J. Yan, D. Deng, and Z. Wang, “深層双線形畳み込みニューラルネットワークによるブラインド画像の品質評価”。 IEEE Transactions on Circuits and Systems for Video Technology, vol.
0.90
30, no. 1, pp. 36–47, 2018. 30 no. 1 pp. 36-47、2018年。 0.76
[37] X. Min, G. Zhai, K. Gu, X. Yang, and X. Guan, “Objective quality evaluation of dehazed images,” IEEE Transactions on Intelligent Transportation Systems, vol. [37] X. Min, G. Zhai, K. Gu, X. Yang, X. Guan, “Objective quality evaluation of dehazed images, IEEE Transactions on Intelligent Transportation Systems, vol. 0.46
20, no. 8, pp. 2879– 2892, 2018. 20, 8, pp. 2879–2892, 2018。 0.72
[38] X. Min, G. Zhai, K. Gu, Y. Zhu, J. Zhou, G. Guo, X. Yang, X. Guan, and W. Zhang, “Quality evaluation of image dehazing methods using synthetic hazy images,” IEEE Transactions on Multimedia, vol. [38] X. Min, G. Zhai, K. Gu, Y. Zhu, J. Zhou, G. Guo, X. Yang, X. Guan, W. Zhang, “Quality Evaluation of image dehazing method using synthetic hazy image, IEEE Transactions on Multimedia, vol.
訳抜け防止モード: [38 ]X. Min, G. Zhai, K. Gu, Y. Zhu, J. Zhou, G. Guo, X. Yang X. Guan, W. Zhang, “Synthetic hazy imageを用いた画像脱ヘイズ手法の品質評価” IEEE Transactions on Multimedia , vol。
0.92
21, no. 9, pp. 2319–2333, 2019. 第21巻第9号, pp. 2319–2333, 2019。 0.70
[39] Q. Wu, L. Wang, K. N. Ngan, H. Li, and F. Meng, “Beyond synthetic data: A blind deraining quality assessment metric towards authentic rain image,” in IEEE International Conference on Image Processing, 2019, pp. 2364–2368. IEEE International Conference on Image Processing, 2019, pp. 2364–2368.[39] Q. Wu, L. Wang, K. N. Ngan, H. Li, F. Meng, “Beyond synthetic data: A blind deraining quality Assessment metric to a secure rain image”. IEEE International Conference on Image Processing, 2019, pp. 2364–2368。
訳抜け防止モード: [39 ]Q.Wu,L.Wang,K.N.Ngan , H. Li, F. Meng, “Beyond synthetic data : A blind deraining quality Assessment metric to a Agentic rain image” IEEE International Conference on Image Processing, 2019, pp. 2364–2368
0.43
[40] Q. Wu, L. Wang, K. N. Ngan, H. Li, F. Meng, and L. Xu, “Subjective and objective de-raining quality assessment towards authentic rain image,” IEEE Transactions on Circuits and Systems for Video Technology, vol. 40] q. wu, l. wang, k. n. ngan, h. li, f. meng, l. xu, “本物の雨画像に対する主観的かつ客観的な降雨品質評価”。 0.52
30, no. 11, pp. 3883–3897, 2020. 30 no. 11, pp. 3883-3897, 2020。 0.82
[41] M. Yang and A. Sowmya, “An underwater color image quality evaluation metric,” IEEE Transactions on Image Processing, vol. IEEE Transactions on Image Processing, vol.[41]M. Yang, A. Sowmya, “An underwater color image quality evaluation metric, IEEE Transactions on Image Processing, Vol.
訳抜け防止モード: [41 ]m. yang, a. sowmya, “an underwater color image quality evaluation metric” ieeeは画像処理でトランザクションを処理します。
0.73
24, no. 12, pp. 6062–6071, 2015. 24巻12頁、p.6062-6071、2015年。 0.59
[42] P. Guo, L. He, S. Liu, D. Zeng, and H. Liu, “Underwater image quality assessment: Subjective and objective methods,” IEEE Transactions on Multimedia, 2021. [42]P. Guo, L. He, S. Liu, D. Zeng, H. Liu, “Underwater image quality Assessment: Subjective and objective Method”, IEEE Transactions on Multimedia, 2021。
訳抜け防止モード: [42 ]P.Guo, L. He, S. Liu, D. Zeng, H. Liu, 「水中画像品質評価 : 主観的・客観的手法」 IEEE Transactions on Multimedia , 2021
0.81
英語(論文から抽出)日本語訳スコア
12 [43] Z. Wang, A. Bovik, H. Sheikh, and E. Simoncelli, “Image quality assessment: from error visibility to structural similarity,” IEEE Transactions on Image Processing, vol. 12 Z.Wang, A. Bovik, H. Sheikh, E. Simoncelli, “画像品質評価:エラーの可視性から構造的類似性に至るまで”, IEEE Transactions on Image Processing, vol。 0.63
13, no. 4, pp. 600–612, 2004. 13, No. 4, pp. 600-612, 2004。 0.91
[44] A. Ignatov, N. Kobyshev, R. Timofte, and K. Vanhoey, “Dslrquality photos on mobile devices with deep convolutional networks,” in 2017 IEEE International Conference on Computer Vision (ICCV), 2017, pp. 3297–3305. A. Ignatov, N. Kobyshev, R. Timofte, K. Vanhoey, “Dslrquality photos on mobile devices with deep convolutional network” in 2017 IEEE International Conference on Computer Vision (ICCV), 2017 pp. 3297–3305。
訳抜け防止モード: 44] a. ignatov, n. kobyshev, r. timofte, k. vanhoey. 2017年ieee international conference on computer vision (iccv) で "dslrquality photos on mobile devices with deep convolutional networks, ” と題された。 2017 , pp . 3297–3305 .
0.85
[45] J. B. Tenenbaum and W. T. Freeman, “Separating style and [45]J・B・テネンバウムとW・T・フリーマン「分離様式」 0.58
content,” in NIPS, 1996. とnips, 1996に書いている。 0.56
[46] T. -Y. [46]t。 -y。 0.34
Lin, A. RoyChowdhury, and S. Maji, “Bilinear cnn models for fine-grained visual recognition,” 2015 IEEE International Conference on Computer Vision (ICCV), pp. 1449–1457, 2015. Lin, A. RoyChowdhury, and S. Maji, “Bilinear cnn models for fine-fine visual recognition”. 2015 IEEE International Conference on Computer Vision (ICCV), pp. 1449–1457, 2015. 0.48
[47] K. Simonyan and A. Zisserman, “Two-stream convolutional [47]K. SimonyanとA. Zisserman, “2ストリームの畳み込み” 0.75
networks for action recognition in videos,” in NIPS, 2014. とNIPS, 2014で述べている。 0.34
[48] W. Zhang, K. Ma, J. Yan, D. Deng, and Z. Wang, “Blind image quality assessment using a deep bilinear convolutional neural network,” IEEE Transactions on Circuits and Systems for Video Technology, vol. [48] w. zhang, k. ma, j. yan, d. deng, z. wang, “ディープバイリニア畳み込みニューラルネットワークを用いた画像品質評価” ieee transactions on circuits and systems for video technology, vol.)。
訳抜け防止モード: [48 ] W. Zhang, K. Ma, J. Yan, D. Deng, and Z. Wang, “深層双線形畳み込みニューラルネットワークによるブラインド画像の品質評価”。 IEEE Transactions on Circuits and Systems for Video Technology, vol.
0.89
30, pp. 36–47, 2020. 第30巻、p.36-47、2020。 0.42
[49] X. Pennec, P. Fillard, and N. Ayache, “A riemannian framework for tensor computing,” International Journal of Computer Vision, vol. [49] x. pennec, p. fillard, and n. ayache, “a riemannian framework for tensor computing”, international journal of computer vision, vol. (英語)
訳抜け防止モード: [49 ]X. Pennec, P. Fillard, N. Ayache テンソルコンピューティングのためのリーマン的フレームワーク” International Journal of Computer Vision,vol
0.68
66, pp. 41–66, 2005. 66, pp. 41-66, 2005。 0.86
[50] F. Perronnin, J. S´anchez, and T. Mensink, “Improving the fisher 50] f. perronnin, j. s ́anchez, t. mensink, "improving the fisher" 0.42
kernel for large-scale image classification,” in ECCV, 2010. 大規模な画像分類のためのカーネル” ECCV, 2010。 0.85
[51] D. P. Kingma and J. Ba, “Adam: A method for stochastic [51] d. p. kingma と j. ba, “adam: a method for stochastic” 0.43
optimization,” CoRR, vol. とcorr, vol。 0.32
abs/1412.6980, 2015. abs/1412.6980, 2015 0.35
[52] A. Paszke, S. Gross, F. Massa, A. Lerer, J. Bradbury, G. Chanan, T. Killeen, Z. Lin, N. Gimelshein, L. Antiga, A. Desmaison, A. K¨opf, E. Yang, Z. DeVito, M. Raison, A. Tejani, S. Chilamkurthy, B. Steiner, L. Fang, J. Bai, and S. Chintala, “Pytorch: An imperative style, high-performance deep learning library,” in NeurIPS, 2019. A. Paszke氏、S. Gross氏、F. Massa氏、A. Lerer氏、J. Bradbury氏、G. Chanan氏、T. Killeen氏、Z. Lin氏、N. Gimelshein氏、L. Antiga氏、A. Desmaison氏、A.K sopf氏、E. Yang氏、Z. DeVito氏、M. Raison氏、A. Tejani氏、S. Chilamkurthy氏、B. Steiner氏、L. Fang氏、J. Bai氏、S. Chintala氏は2019年、NeurIPSで「Pytorch: 命令型、高性能ディープラーニングライブラリ。
訳抜け防止モード: [52 ]A. Paszke, S. Gross, F. Massa, A. Lerer, J. Bradbury, G. Chanan, T. Killeen Z. Lin, N. Gimelshein, L. Antiga, A. Desmaison, A. K sopf E. Yang, Z. DeVito, M. Raison, A. Tejani S. Chilamkurthy, B. Steiner, L. Fang, J. Bai, S. Chintala 『Pytorch : 命令型でハイパフォーマンスなディープラーニングライブラリ』 In NeurIPS, 2019。
0.93
[53] C. -C. Chang and C. 53]C。 -C。 Chang と C。 0.50
-J. Lin, “Libsvm: A library for support vector machines,” ACM Trans. -j。 Lin, “Libsvm: a library for support vector machines”, ACM Trans。 0.55
Intell. Syst. インテリ。 シスト。 0.54
Technol. , vol. 2, pp. 27:1–27:27, 2011. テクノル ヴォル。 pp. 27:1-27:27, 2011。 0.50
[54] D. C. Montgomery and G. C. Runger, Applied Statistics and Probability for Engineers. [54] d.c.モンゴメリーとg.c.ランガーはエンジニアに統計と確率を適用した。 0.63
Applied statistics and probability for engineers, 2014. 2014年、技術者の統計と確率を適用した。 0.58
[55] X. Guo, Y. Li, and H. Ling, “Lime: Low-light image enhancement via illumination map estimation,” IEEE Transactions on Image Processing, vol. [55] X. Guo, Y. Li, H. Ling, “Lime: 照明マップ推定による低照度画像強調”, IEEE Transactions on Image Processing, vol。 0.86
26, pp. 982–993, 2017. 26p.972-993、2017年。 0.79
                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。