論文の概要: An Image Quality Assessment Dataset for Portraits
- arxiv url: http://arxiv.org/abs/2304.05772v1
- Date: Wed, 12 Apr 2023 11:30:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 15:21:45.519860
- Title: An Image Quality Assessment Dataset for Portraits
- Title(参考訳): 肖像画の画質評価データセット
- Authors: Nicolas Chahine, Ana-Stefania Calarasanu, Davide Garcia-Civiero, Theo
Cayla, Sira Ferradans, Jean Ponce (NYU)
- Abstract要約: 本稿では,PIQ23について紹介する。PIQ23は,100台のスマートフォンが取得した50のシナリオの5116枚の画像からなる,ポートレート固有のIQAデータセットである。
このデータセットには、さまざまな性別や民族の個人が含まれており、公開研究に使用される写真について、明確かつインフォームドな同意を与えている。
これらのアノテーションの詳細な統計解析により、PIQ23上での一貫性を評価することができる。
- 参考スコア(独自算出の注目度): 0.9786690381850354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Year after year, the demand for ever-better smartphone photos continues to
grow, in particular in the domain of portrait photography. Manufacturers thus
use perceptual quality criteria throughout the development of smartphone
cameras. This costly procedure can be partially replaced by automated
learning-based methods for image quality assessment (IQA). Due to its
subjective nature, it is necessary to estimate and guarantee the consistency of
the IQA process, a characteristic lacking in the mean opinion scores (MOS)
widely used for crowdsourcing IQA. In addition, existing blind IQA (BIQA)
datasets pay little attention to the difficulty of cross-content assessment,
which may degrade the quality of annotations. This paper introduces PIQ23, a
portrait-specific IQA dataset of 5116 images of 50 predefined scenarios
acquired by 100 smartphones, covering a high variety of brands, models, and use
cases. The dataset includes individuals of various genders and ethnicities who
have given explicit and informed consent for their photographs to be used in
public research. It is annotated by pairwise comparisons (PWC) collected from
over 30 image quality experts for three image attributes: face detail
preservation, face target exposure, and overall image quality. An in-depth
statistical analysis of these annotations allows us to evaluate their
consistency over PIQ23. Finally, we show through an extensive comparison with
existing baselines that semantic information (image context) can be used to
improve IQA predictions. The dataset along with the proposed statistical
analysis and BIQA algorithms are available:
https://github.com/DXOMARK-Research/PIQ2023
- Abstract(参考訳): スマートフォンの写真の需要は年々増え続けており、特にポートレート写真の分野では増え続けている。
したがって、メーカーはスマートフォンカメラの開発を通じて知覚品質基準を使用する。
このコストのかかる手順は、画像品質評価(IQA)の自動学習手法に部分的に置き換えることができる。
主観的な性質から,クラウドソーシングに広く用いられている平均意見スコア (mos) に欠けている特徴である iqa プロセスの一貫性を推定し,保証する必要がある。
さらに、既存の盲点IQA(BIQA)データセットは、アノテーションの品質を低下させるクロスコンテンツアセスメントの難しさにはほとんど注意を払わない。
本稿では,100台のスマートフォンが事前に定義した50のシナリオの5116枚の画像から,多種多様なブランドやモデル,ユースケースをカバーする,ポートレート固有のiqaデータセットであるpiq23を紹介する。
このデータセットには、さまざまな性別や民族の個人が含まれており、公開研究に使用される写真について明示的で情報的な同意を与えている。
3つの画像属性(顔の細部保存、顔のターゲットの露出、全体的な画像品質)について、30以上の画像品質専門家から収集されたペアワイズ比較(pwc)によってアノテートされる。
これらのアノテーションの詳細な統計解析により、piq23に対する一貫性を評価することができる。
最後に,既存のベースラインと比較して,セマンティック情報(画像コンテキスト)がIQA予測を改善することができることを示す。
提案された統計分析とBIQAアルゴリズムと共にデータセットが利用可能である。
関連論文リスト
- Generalized Portrait Quality Assessment [26.8378202089832]
本稿では,ポートレート品質評価(PQA)に対する学習に基づくアプローチを提案する。
提案手法はPIQ23ベンチマークの広範な実験により検証された。
FHIQAのソースコードは、PIQ23 GitHubリポジトリで公開されている。
論文 参考訳(メタデータ) (2024-02-14T13:47:18Z) - AIGCIQA2023: A Large-scale Image Quality Assessment Database for AI
Generated Images: from the Perspectives of Quality, Authenticity and
Correspondence [42.85549933048976]
100プロンプトを用いて6つの最先端テキスト画像生成モデルに基づいて2000以上の画像を生成する。
これらの画像に基づいて、各画像に対する人間の視覚的嗜好を3つの視点から評価する主観的な実験を行った。
構築したデータベース上で,いくつかの最先端IQAメトリクスの性能を評価するためのベンチマーク実験を行った。
論文 参考訳(メタデータ) (2023-07-01T03:30:31Z) - AGIQA-3K: An Open Database for AI-Generated Image Quality Assessment [62.8834581626703]
我々はこれまでに最も包括的な主観的品質データベース AGIQA-3K を構築している。
このデータベース上でベンチマーク実験を行い、現在の画像品質評価(IQA)モデルと人間の知覚との整合性を評価する。
我々は、AGIQA-3Kの微粒な主観的スコアが、その後のAGI品質モデルにヒトの主観的知覚機構に適合するよう促すと信じている。
論文 参考訳(メタデータ) (2023-06-07T18:28:21Z) - Blind Image Quality Assessment via Vision-Language Correspondence: A
Multitask Learning Perspective [93.56647950778357]
ブラインド画像品質評価(BIQA)は、参照情報なしで画像品質の人間の知覚を予測する。
我々は,他のタスクからの補助的知識を活用するために,BIQAのための汎用的かつ自動化されたマルチタスク学習手法を開発した。
論文 参考訳(メタデータ) (2023-03-27T07:58:09Z) - Blind Multimodal Quality Assessment: A Brief Survey and A Case Study of
Low-light Images [73.27643795557778]
ブラインド画像品質評価(BIQA)は、視覚信号の客観的スコアを自動的に正確に予測することを目的としている。
この分野での最近の発展は、ヒトの主観的評価パターンと矛盾しない一助的解によって支配されている。
主観的評価から客観的スコアへの低照度画像の一意なブラインドマルチモーダル品質評価(BMQA)を提案する。
論文 参考訳(メタデータ) (2023-03-18T09:04:55Z) - Going the Extra Mile in Face Image Quality Assessment: A Novel Database
and Model [42.05084438912876]
現在までに開発された最大のアノテートIQAデータベースについて紹介する。
本稿では,顔画像の品質を正確に予測する新しいディープラーニングモデルを提案する。
論文 参考訳(メタデータ) (2022-07-11T14:28:18Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Confusing Image Quality Assessment: Towards Better Augmented Reality
Experience [96.29124666702566]
我々はAR技術を仮想シーンと実シーンの重ね合わせとみなし、視覚的混乱を基本的な理論として紹介する。
ConFusing Image Quality Assessment (CFIQA)データベースが構築され、600個の参照画像と300個の歪画像とをペアに混合して生成する。
また、難解な画像品質をよりよく評価するために、CFIQAと呼ばれる客観的な計量も提案されている。
論文 参考訳(メタデータ) (2022-04-11T07:03:06Z) - Parameterized Image Quality Score Distribution Prediction [40.397816495489295]
平均世論スコア(MOS)ではなくパラメータ分布を用いた画像品質について述べる。
画像品質スコア分布(IQSD)の予測手法も提案する。
論文 参考訳(メタデータ) (2022-03-02T08:13:33Z) - Continual Learning for Blind Image Quality Assessment [80.55119990128419]
ブラインド画像品質評価(BIQA)モデルは、サブポピュレーションシフトに継続的に適応できない。
最近の研究では、利用可能なすべての人間評価のIQAデータセットの組み合わせに関するBIQAメソッドのトレーニングが推奨されている。
モデルがIQAデータセットのストリームから継続的に学習するBIQAの継続的学習を策定する。
論文 参考訳(メタデータ) (2021-02-19T03:07:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。