論文の概要: Quality Evaluation of Arbitrary Style Transfer: Subjective Study and
Objective Metric
- arxiv url: http://arxiv.org/abs/2208.00623v1
- Date: Mon, 1 Aug 2022 05:50:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:59:07.905218
- Title: Quality Evaluation of Arbitrary Style Transfer: Subjective Study and
Objective Metric
- Title(参考訳): 任意型転送の品質評価:主観的研究と客観的基準
- Authors: Hangwei Chen, Feng Shao, Xiongli Chai, Yuese Gu, Qiuping Jiang,
Xiangchao Meng, Yo-Sung Ho
- Abstract要約: 本稿では、任意のスタイル転送(AST)画像の品質を測定するために、新しいスパース表現に基づく画像品質評価指標(SRQE)を提案する。
AST-IQAD実験の結果,提案手法の優位性が確認された。
- 参考スコア(独自算出の注目度): 28.898576735547262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Arbitrary neural style transfer is a vital topic with research value and
industrial application prospect, which strives to render the structure of one
image using the style of another. Recent researches have devoted great efforts
on the task of arbitrary style transfer (AST) for improving the stylization
quality. However, there are very few explorations about the quality evaluation
of AST images, even it can potentially guide the design of different
algorithms. In this paper, we first construct a new AST images quality
assessment database (AST-IQAD) that consists 150 content-style image pairs and
the corresponding 1200 stylized images produced by eight typical AST
algorithms. Then, a subjective study is conducted on our AST-IQAD database,
which obtains the subjective rating scores of all stylized images on the three
subjective evaluations, i.e., content preservation (CP), style resemblance
(SR), and overall visual (OV). To quantitatively measure the quality of AST
image, we proposed a new sparse representation-based image quality evaluation
metric (SRQE), which computes the quality using the sparse feature similarity.
Experimental results on the AST-IQAD have demonstrated the superiority of the
proposed method. The dataset and source code will be released at
https://github.com/Hangwei-Chen/AST-IQAD-SRQE
- Abstract(参考訳): 任意型ニューラルスタイル転送は研究価値と産業応用の展望に欠かせないトピックであり、ある画像の構造を別の画像のスタイルで表現しようとする試みである。
最近の研究は、任意のスタイル転送(AST)によるスタイル化の品質向上に多大な努力を払っている。
しかし、AST画像の品質評価に関する調査はごくわずかであり、異なるアルゴリズムの設計を導く可能性さえある。
本稿では,まず,150のコンテントスタイルの画像対と,8つの典型的なASTアルゴリズムによって生成された1200のスタイリング画像からなるAST画像品質評価データベース(AST-IQAD)を構築する。
次に,3つの主観的評価,すなわち,コンテンツ保存(cp),スタイル類似性(sr),全体視性(ov)において,すべてのスタイリゼーション画像の主観的評価スコアを求めるast-iqadデータベースを用いて主観的評価を行った。
ast画像の品質を定量的に測定するために,sparse特徴類似度を用いて品質を計算する新しいsparse representation-based image quality evaluation metric (srqe)を提案する。
AST-IQAD実験の結果,提案手法の優位性が確認された。
データセットとソースコードはhttps://github.com/Hangwei-Chen/AST-IQAD-SRQEで公開される。
関連論文リスト
- Q-Ground: Image Quality Grounding with Large Multi-modality Models [61.72022069880346]
Q-Groundは、大規模な視覚的品質グラウンドに取り組むための最初のフレームワークである。
Q-Groundは、大規模なマルチモダリティモデルと詳細な視覚的品質分析を組み合わせる。
コントリビューションの中心は、QGround-100Kデータセットの導入です。
論文 参考訳(メタデータ) (2024-07-24T06:42:46Z) - UHD-IQA Benchmark Database: Pushing the Boundaries of Blind Photo Quality Assessment [4.563959812257119]
固定幅3840ピクセルの6073 UHD-1 (4K)画像からなる画像品質評価データセットを提案する。
私たちの作品は、高い技術品質の高度に美的な写真に焦点を当てており、文学のギャップを埋めています。
データセットには、クラウドソーシング調査を通じて得られた知覚的品質評価が注釈付けされている。
論文 参考訳(メタデータ) (2024-06-25T11:30:31Z) - Descriptive Image Quality Assessment in the Wild [25.503311093471076]
VLMに基づく画像品質評価(IQA)は、画像品質を言語的に記述し、人間の表現に合わせることを目指している。
野生における画像品質評価(DepictQA-Wild)について紹介する。
本手法は,評価タスクと比較タスク,簡潔かつ詳細な応答,完全参照,非参照シナリオを含む多機能IQAタスクパラダイムを含む。
論文 参考訳(メタデータ) (2024-05-29T07:49:15Z) - AIGCOIQA2024: Perceptual Quality Assessment of AI Generated Omnidirectional Images [70.42666704072964]
我々はAI生成の全方位画像IQAデータベースAIIGCOIQA2024を構築した。
3つの視点から人間の視覚的嗜好を評価するために、主観的IQA実験を行った。
我々は,データベース上での最先端IQAモデルの性能を評価するためのベンチマーク実験を行った。
論文 参考訳(メタデータ) (2024-04-01T10:08:23Z) - Pairwise Comparisons Are All You Need [22.798716660911833]
ブラインド画像品質評価(BIQA)アプローチは、様々な画像に一様に適用される一般的な品質基準に依存しているため、現実のシナリオでは不足することが多い。
本稿では、従来のBIQAの制限を回避すべく設計されたペアワイズ比較フレームワークであるPICNIQを紹介する。
PICNIQは、サイコメトリックスケーリングアルゴリズムを用いることで、対比較をジャストオブジェクタブルディファレンス(JOD)の品質スコアに変換し、画像品質の粒度と解釈可能な指標を提供する。
論文 参考訳(メタデータ) (2024-03-13T23:43:36Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - SPQE: Structure-and-Perception-Based Quality Evaluation for Image
Super-Resolution [24.584839578742237]
超解像技術は画像の画質を大幅に改善し、解像度を向上した。
また、これらのアルゴリズムや生成された画像を評価するための効率的なSR画像品質評価(SR-IQA)も求めている。
深層学習ベースSRでは、生成した高品質で視覚的に喜ぶ画像は、対応する低品質の画像とは異なる構造を持つ可能性がある。
論文 参考訳(メタデータ) (2022-05-07T07:52:55Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Confusing Image Quality Assessment: Towards Better Augmented Reality
Experience [96.29124666702566]
我々はAR技術を仮想シーンと実シーンの重ね合わせとみなし、視覚的混乱を基本的な理論として紹介する。
ConFusing Image Quality Assessment (CFIQA)データベースが構築され、600個の参照画像と300個の歪画像とをペアに混合して生成する。
また、難解な画像品質をよりよく評価するために、CFIQAと呼ばれる客観的な計量も提案されている。
論文 参考訳(メタデータ) (2022-04-11T07:03:06Z) - A combined full-reference image quality assessment approach based on
convolutional activation maps [0.0]
フルリファレンス画像品質評価(FR-IQA)の目標は、人間の観察者が認識する画像の品質を、そのプリスタントな基準値を用いて予測することである。
本研究では,畳み込みアクティベーションマップから特徴ベクトルをコンパイルすることにより,歪み画像の知覚的品質を予測する手法を提案する。
論文 参考訳(メタデータ) (2020-10-19T10:00:29Z) - NPRportrait 1.0: A Three-Level Benchmark for Non-Photorealistic
Rendering of Portraits [67.58044348082944]
本稿では,スタイリングされたポートレート画像の評価のための,新しい3レベルベンチマークデータセットを提案する。
厳密な基準が構築に使われ、その一貫性はユーザスタディによって検証された。
ポートレート・スタイル化アルゴリズムを評価するための新しい手法が開発されている。
論文 参考訳(メタデータ) (2020-09-01T18:04:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。