論文の概要: Quality-guided Skin Tone Enhancement for Portrait Photography
- arxiv url: http://arxiv.org/abs/2406.15848v1
- Date: Sat, 22 Jun 2024 13:36:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 20:15:22.621434
- Title: Quality-guided Skin Tone Enhancement for Portrait Photography
- Title(参考訳): 写真画質向上のための品質誘導型肌音強調
- Authors: Shiqi Gao, Huiyu Duan, Xinyue Li, Kang Fu, Yicong Peng, Qihang Xu, Yuanyuan Chang, Jia Wang, Xiongkuo Min, Guangtao Zhai,
- Abstract要約: 本稿では,画質評価の異なる画像の分布を画像強調モデルで学習できる品質誘導型画像強調パラダイムを提案する。
本手法では,異なる品質要件に応じて皮膚のトーンを調整できる。
- 参考スコア(独自算出の注目度): 46.55401398142088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, learning-based color and tone enhancement methods for photos have become increasingly popular. However, most learning-based image enhancement methods just learn a mapping from one distribution to another based on one dataset, lacking the ability to adjust images continuously and controllably. It is important to enable the learning-based enhancement models to adjust an image continuously, since in many cases we may want to get a slighter or stronger enhancement effect rather than one fixed adjusted result. In this paper, we propose a quality-guided image enhancement paradigm that enables image enhancement models to learn the distribution of images with various quality ratings. By learning this distribution, image enhancement models can associate image features with their corresponding perceptual qualities, which can be used to adjust images continuously according to different quality scores. To validate the effectiveness of our proposed method, a subjective quality assessment experiment is first conducted, focusing on skin tone adjustment in portrait photography. Guided by the subjective quality ratings obtained from this experiment, our method can adjust the skin tone corresponding to different quality requirements. Furthermore, an experiment conducted on 10 natural raw images corroborates the effectiveness of our model in situations with fewer subjects and fewer shots, and also demonstrates its general applicability to natural images. Our project page is https://github.com/IntMeGroup/quality-guided-enhancement .
- Abstract(参考訳): 近年,写真の色とトーン向上手法が普及している。
しかし、ほとんどの学習ベースの画像強調手法は、あるデータセットに基づいて、ある分布から別の分布へのマッピングを学習するだけであり、画像の連続的かつ制御性に欠ける。
学習ベースエンハンスメントモデルで画像を連続的に調整できることが重要である。
本稿では,画質評価の異なる画像の分布を画像強調モデルで学習できる品質誘導型画像強調パラダイムを提案する。
この分布を学習することにより、画像強調モデルは、画像の特徴とそれに対応する知覚的品質を関連付けることができ、異なる品質スコアに応じて画像を継続的に調整することができる。
提案手法の有効性を検証するために,画像の肌色調整に着目した主観的品質評価実験を行った。
本実験から得られた主観的品質評価によって,本手法は品質要求に応じて皮膚のトーンを調整することができる。
さらに,10個の天然物画像に対して行った実験により,被写体数が少なく,被写体数が少ない状況において,本モデルの有効性を裏付けるとともに,本モデルが自然物画像に適用可能であることを示す。
私たちのプロジェクトページはhttps://github.com/IntMeGroup/quality-guided-enhancementです。
関連論文リスト
- JeDi: Joint-Image Diffusion Models for Finetuning-Free Personalized Text-to-Image Generation [49.997839600988875]
既存のパーソナライズ手法は、ユーザのカスタムデータセット上でテキスト・ツー・イメージの基礎モデルを微調整することに依存している。
ファインタニングフリーのパーソナライズモデルを学ぶための効果的な手法として,ジョイントイメージ拡散(jedi)を提案する。
本モデルは,従来のファインタニングベースとファインタニングフリーのパーソナライゼーションベースの両方において,定量的かつ定性的に,高い品質を実現する。
論文 参考訳(メタデータ) (2024-07-08T17:59:02Z) - DiffRetouch: Using Diffusion to Retouch on the Shoulder of Experts [45.730449182899754]
DiffRetouch という拡散型リタッチ方式。
4つの画像属性を調整可能とし、ユーザフレンドリーな編集機構を提供する。
テクスチャ歪みと制御感度の問題をそれぞれ扱うために,アフィン二元格子とコントラスト学習方式を導入する。
論文 参考訳(メタデータ) (2024-07-04T09:09:42Z) - Local Manifold Learning for No-Reference Image Quality Assessment [68.9577503732292]
No-Reference Image Quality Assessment(NR-IQA)のための、局所多様体学習とコントラスト学習を統合した革新的なフレームワークを提案する。
提案手法は,7つの標準データセットの最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-06-27T15:14:23Z) - HiCD: Change Detection in Quality-Varied Images via Hierarchical
Correlation Distillation [40.03785896317387]
知識蒸留を基礎とした革新的な教育戦略を導入する。
中心となるアイデアは、高品質なイメージペアから取得したタスク知識を活用して、モデルの学習をガイドすることにある。
我々は階層的相関蒸留法(自己相関、相互相関、大域相関を含む)を開発する。
論文 参考訳(メタデータ) (2024-01-19T15:21:51Z) - Test your samples jointly: Pseudo-reference for image quality evaluation [3.2634122554914]
品質評価の精度を向上させるため,同じ内容の異なる画像を共同でモデル化することを提案する。
実験の結果,本手法では,同一の新たなコンテンツを示す複数の画像の特徴を組み合わせることができ,評価精度が向上することがわかった。
論文 参考訳(メタデータ) (2023-04-07T17:59:27Z) - Quality-aware Pre-trained Models for Blind Image Quality Assessment [15.566552014530938]
ブラインド画像品質評価(BIQA)は,画像の知覚品質を自動的に評価することを目的としている。
本稿では,BIQA用にカスタマイズされたプレテキストタスクを用いて,自己教師型学習方式でこの問題を解決することを提案する。
論文 参考訳(メタデータ) (2023-03-01T13:52:40Z) - Controllable Image Enhancement [66.18525728881711]
いくつかのパラメータを制御して、複数のスタイルで高品質な画像を生成できる半自動画像強調アルゴリズムを提案する。
エンコーダ・デコーダフレームワークは、リタッチスキルを潜在コードにエンコードし、イメージ信号処理機能のパラメータにデコードする。
論文 参考訳(メタデータ) (2022-06-16T23:54:53Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。