論文の概要: Quality Evaluation of Arbitrary Style Transfer: Subjective Study and
Objective Metric
- arxiv url: http://arxiv.org/abs/2208.00623v1
- Date: Mon, 1 Aug 2022 05:50:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:59:07.905218
- Title: Quality Evaluation of Arbitrary Style Transfer: Subjective Study and
Objective Metric
- Title(参考訳): 任意型転送の品質評価:主観的研究と客観的基準
- Authors: Hangwei Chen, Feng Shao, Xiongli Chai, Yuese Gu, Qiuping Jiang,
Xiangchao Meng, Yo-Sung Ho
- Abstract要約: 本稿では、任意のスタイル転送(AST)画像の品質を測定するために、新しいスパース表現に基づく画像品質評価指標(SRQE)を提案する。
AST-IQAD実験の結果,提案手法の優位性が確認された。
- 参考スコア(独自算出の注目度): 28.898576735547262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Arbitrary neural style transfer is a vital topic with research value and
industrial application prospect, which strives to render the structure of one
image using the style of another. Recent researches have devoted great efforts
on the task of arbitrary style transfer (AST) for improving the stylization
quality. However, there are very few explorations about the quality evaluation
of AST images, even it can potentially guide the design of different
algorithms. In this paper, we first construct a new AST images quality
assessment database (AST-IQAD) that consists 150 content-style image pairs and
the corresponding 1200 stylized images produced by eight typical AST
algorithms. Then, a subjective study is conducted on our AST-IQAD database,
which obtains the subjective rating scores of all stylized images on the three
subjective evaluations, i.e., content preservation (CP), style resemblance
(SR), and overall visual (OV). To quantitatively measure the quality of AST
image, we proposed a new sparse representation-based image quality evaluation
metric (SRQE), which computes the quality using the sparse feature similarity.
Experimental results on the AST-IQAD have demonstrated the superiority of the
proposed method. The dataset and source code will be released at
https://github.com/Hangwei-Chen/AST-IQAD-SRQE
- Abstract(参考訳): 任意型ニューラルスタイル転送は研究価値と産業応用の展望に欠かせないトピックであり、ある画像の構造を別の画像のスタイルで表現しようとする試みである。
最近の研究は、任意のスタイル転送(AST)によるスタイル化の品質向上に多大な努力を払っている。
しかし、AST画像の品質評価に関する調査はごくわずかであり、異なるアルゴリズムの設計を導く可能性さえある。
本稿では,まず,150のコンテントスタイルの画像対と,8つの典型的なASTアルゴリズムによって生成された1200のスタイリング画像からなるAST画像品質評価データベース(AST-IQAD)を構築する。
次に,3つの主観的評価,すなわち,コンテンツ保存(cp),スタイル類似性(sr),全体視性(ov)において,すべてのスタイリゼーション画像の主観的評価スコアを求めるast-iqadデータベースを用いて主観的評価を行った。
ast画像の品質を定量的に測定するために,sparse特徴類似度を用いて品質を計算する新しいsparse representation-based image quality evaluation metric (srqe)を提案する。
AST-IQAD実験の結果,提案手法の優位性が確認された。
データセットとソースコードはhttps://github.com/Hangwei-Chen/AST-IQAD-SRQEで公開される。
関連論文リスト
- Blind Image Quality Assessment via Vision-Language Correspondence: A
Multitask Learning Perspective [93.56647950778357]
ブラインド画像品質評価(BIQA)は、参照情報なしで画像品質の人間の知覚を予測する。
我々は,他のタスクからの補助的知識を活用するために,BIQAのための汎用的かつ自動化されたマルチタスク学習手法を開発した。
論文 参考訳(メタデータ) (2023-03-27T07:58:09Z) - ST360IQ: No-Reference Omnidirectional Image Quality Assessment with
Spherical Vision Transformers [17.48330099000856]
ノン参照360画像品質評価法を提案する。
提案手法は,全方位画像の品質と人間の知覚画像品質の相関関係を推定する。
論文 参考訳(メタデータ) (2023-03-13T07:48:46Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - SPQE: Structure-and-Perception-Based Quality Evaluation for Image
Super-Resolution [24.584839578742237]
超解像技術は画像の画質を大幅に改善し、解像度を向上した。
また、これらのアルゴリズムや生成された画像を評価するための効率的なSR画像品質評価(SR-IQA)も求めている。
深層学習ベースSRでは、生成した高品質で視覚的に喜ぶ画像は、対応する低品質の画像とは異なる構造を持つ可能性がある。
論文 参考訳(メタデータ) (2022-05-07T07:52:55Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Confusing Image Quality Assessment: Towards Better Augmented Reality
Experience [96.29124666702566]
我々はAR技術を仮想シーンと実シーンの重ね合わせとみなし、視覚的混乱を基本的な理論として紹介する。
ConFusing Image Quality Assessment (CFIQA)データベースが構築され、600個の参照画像と300個の歪画像とをペアに混合して生成する。
また、難解な画像品質をよりよく評価するために、CFIQAと呼ばれる客観的な計量も提案されている。
論文 参考訳(メタデータ) (2022-04-11T07:03:06Z) - Learning Conditional Knowledge Distillation for Degraded-Reference Image
Quality Assessment [157.1292674649519]
劣化参照IQA(DR-IQA)という実用的な解を提案する。
DR-IQAはIRモデルの入力、劣化したイメージを参照として利用する。
私たちの結果は、フル参照設定のパフォーマンスに近いものもあります。
論文 参考訳(メタデータ) (2021-08-18T02:35:08Z) - Learning-Based Quality Assessment for Image Super-Resolution [25.76907513611358]
我々は,新しい半自動ラベリング手法を用いて,大規模sr画像データベースを構築する。
結果のSR画像品質データベースには、100の自然シーンの8,400の画像が含まれている。
特徴抽出にDNN(Deep Neural Networks)を用いたエンドツーエンドのDeep Image SR Quality(DISQ)モデルと、品質予測のためのFeature fusion Networkをトレーニングします。
論文 参考訳(メタデータ) (2020-12-16T04:06:27Z) - A combined full-reference image quality assessment approach based on
convolutional activation maps [0.0]
フルリファレンス画像品質評価(FR-IQA)の目標は、人間の観察者が認識する画像の品質を、そのプリスタントな基準値を用いて予測することである。
本研究では,畳み込みアクティベーションマップから特徴ベクトルをコンパイルすることにより,歪み画像の知覚的品質を予測する手法を提案する。
論文 参考訳(メタデータ) (2020-10-19T10:00:29Z) - NPRportrait 1.0: A Three-Level Benchmark for Non-Photorealistic
Rendering of Portraits [67.58044348082944]
本稿では,スタイリングされたポートレート画像の評価のための,新しい3レベルベンチマークデータセットを提案する。
厳密な基準が構築に使われ、その一貫性はユーザスタディによって検証された。
ポートレート・スタイル化アルゴリズムを評価するための新しい手法が開発されている。
論文 参考訳(メタデータ) (2020-09-01T18:04:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。