論文の概要: Improving the Accuracy of Beauty Product Recommendations by Assessing
Face Illumination Quality
- arxiv url: http://arxiv.org/abs/2309.04022v1
- Date: Thu, 7 Sep 2023 21:29:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-11 16:34:40.430187
- Title: Improving the Accuracy of Beauty Product Recommendations by Assessing
Face Illumination Quality
- Title(参考訳): 顔の照明品質評価による美容製品推薦の精度向上
- Authors: Parnian Afshar, Jenny Yeon, Andriy Levitskyy, Rahul Suresh, and Amin
Banitalebi-Dehkordi
- Abstract要約: 製品属性と、皮膚の状態やトーンといった製品固有の顔の特徴の両方を推測することが重要である。
本稿では,照明条件が良いか悪いかのどちらかに分類する,照明評価のための機械学習フレームワークを提案する。
次に、照明条件が良いか悪いかをユーザーに知らせる自動ユーザー誘導ツールを構築する。
- 参考スコア(独自算出の注目度): 8.426789807617222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We focus on addressing the challenges in responsible beauty product
recommendation, particularly when it involves comparing the product's color
with a person's skin tone, such as for foundation and concealer products. To
make accurate recommendations, it is crucial to infer both the product
attributes and the product specific facial features such as skin conditions or
tone. However, while many product photos are taken under good light conditions,
face photos are taken from a wide range of conditions. The features extracted
using the photos from ill-illuminated environment can be highly misleading or
even be incompatible to be compared with the product attributes. Hence bad
illumination condition can severely degrade quality of the recommendation.
We introduce a machine learning framework for illumination assessment which
classifies images into having either good or bad illumination condition. We
then build an automatic user guidance tool which informs a user holding their
camera if their illumination condition is good or bad. This way, the user is
provided with rapid feedback and can interactively control how the photo is
taken for their recommendation. Only a few studies are dedicated to this
problem, mostly due to the lack of dataset that is large, labeled, and diverse
both in terms of skin tones and light patterns. Lack of such dataset leads to
neglecting skin tone diversity. Therefore, We begin by constructing a diverse
synthetic dataset that simulates various skin tones and light patterns in
addition to an existing facial image dataset. Next, we train a Convolutional
Neural Network (CNN) for illumination assessment that outperforms the existing
solutions using the synthetic dataset. Finally, we analyze how the our work
improves the shade recommendation for various foundation products.
- Abstract(参考訳): 特に基礎製品や隠蔽製品など,製品の色と人の肌の色を比較する場合において,責任ある美容製品推奨の課題に対処することに注力する。
正確な推奨を行うには、製品属性と、皮膚の状態やトーンなどの製品固有の顔特徴の両方を推測することが重要である。
しかし、多くの製品写真は明るい条件下で撮影されるが、顔写真は幅広い条件下で撮影される。
照明のない環境から写真から抽出された特徴は、非常に誤解を招くか、あるいは製品属性と比較できない場合さえある。
これにより、照明条件の悪さが推奨品質を著しく低下させる。
本稿では,照明条件が良いか悪いかのどちらかに分類する,照明評価のための機械学習フレームワークを提案する。
次に、照明条件が良いか悪いかをユーザーに知らせる自動ユーザー誘導ツールを構築する。
このように、ユーザは迅速なフィードバックを提供し、レコメンデーションのためにどのように撮影するかをインタラクティブに制御できる。
この問題に特化している研究はごくわずかで、主に、大きなデータセットの欠如、ラベル付け、そしてスキントーンとライトパターンの両面で多様である。
このようなデータセットの欠如は、肌色多様性の無視につながる。
そこで我々は,既存の顔画像データセットに加えて,様々な肌色や光パターンをシミュレートする多種多様な合成データセットの構築から始める。
次に、合成データセットを用いて既存のソリューションよりも優れた照明評価を行うために、畳み込みニューラルネットワーク(CNN)を訓練する。
最後に,様々なファウンデーション製品のシェードレコメンデーションを改善させる方法について分析する。
関連論文リスト
- Let There Be Light: Robust Lensless Imaging Under External Illumination With Deep Learning [7.368155086339779]
レンズレスカメラは、アナログ光学からデジタル後処理へ画像形成をシフトすることで、従来のカメラの設計制約を緩和する。
新しいカメラの設計や応用が可能である一方で、レンズレスイメージングは望ましくない干渉(他の情報源、ノイズなど)に非常に敏感である。
論文 参考訳(メタデータ) (2024-09-25T09:24:53Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - Revealing Shadows: Low-Light Image Enhancement Using Self-Calibrated
Illumination [4.913568097686369]
自己校正イルミネーション(Self-Calibrated Illumination, SCI)は、当初RGB画像向けに開発された戦略である。
我々はSCI法を用いて、低照度条件下で通常失われる詳細を強調・明らかにする。
この選択的照明強調方法は、色情報をそのまま残し、画像の色整合性を保つ。
論文 参考訳(メタデータ) (2023-12-23T08:49:19Z) - Relightable Neural Actor with Intrinsic Decomposition and Pose Control [80.06094206522668]
提案するRelightable Neural Actorは、ポーズ駆動型ニューラルヒューマンモデルを学ぶための新しいビデオベース手法である。
トレーニングのためには、既知のが静的な照明条件下での人間のマルチビュー記録のみを必要とする。
実世界のシナリオにおける我々のアプローチを評価するため、屋内と屋外の異なる光条件下で記録された4つのアイデンティティを持つ新しいデータセットを収集した。
論文 参考訳(メタデータ) (2023-12-18T14:30:13Z) - Dimma: Semi-supervised Low Light Image Enhancement with Adaptive Dimming [0.728258471592763]
自然色を維持しながら低照度画像を強調することは、カメラ処理のバリエーションによって難しい問題である。
そこで我々はDimmaを提案する。Dimmaは、画像対の小さなセットを利用して、任意のカメラと整合する半教師付きアプローチである。
そこで我々は,照明の違いに基づいて,シーンの歪み色を生成する畳み込み混合密度ネットワークを導入することで実現した。
論文 参考訳(メタデータ) (2023-10-14T17:59:46Z) - LightPainter: Interactive Portrait Relighting with Freehand Scribble [79.95574780974103]
我々は、スクリブルベースのライティングシステムであるLightPainterを導入し、ユーザーが簡単にポートレート照明効果を操作できるようにする。
リライトモジュールをトレーニングするために,実際のユーザスクリブルを模倣する新しいスクリブルシミュレーション手法を提案する。
定量的および定性的な実験により,高品質でフレキシブルなポートレート照明編集機能を示す。
論文 参考訳(メタデータ) (2023-03-22T23:17:11Z) - Designing An Illumination-Aware Network for Deep Image Relighting [69.750906769976]
本稿では、階層的なサンプリングから1つの画像からシーンを段階的にリライトするためのガイダンスに従うイルミネーション・アウェア・ネットワーク(IAN)を提案する。
さらに、物理レンダリングプロセスの近似として、イルミネーション・アウェア・残留ブロック(IARB)が設計されている。
実験の結果,提案手法は従来の最先端手法よりも定量的,定性的な照準結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-07-21T16:21:24Z) - Automatic Facial Skin Feature Detection for Everyone [60.31670960526022]
本研究では,野生の自撮り自撮りのために,さまざまな肌のトーンと年齢群にまたがって機能する顔顔の特徴自動検出法を提案する。
具体的には,肌の色,重度度,照明条件の異なる自撮り画像に対して,アクネ,顔料,ニキビの位置を注釈する。
論文 参考訳(メタデータ) (2022-03-30T04:52:54Z) - Low-light Image and Video Enhancement via Selective Manipulation of
Chromaticity [1.4680035572775534]
低照度画像と映像強調のための簡易かつ効果的なアプローチを提案する。
上述の適応性により、低照度画像分解による照明と反射率へのコストのかかるステップを回避できる。
標準の低照度画像データセットでは,いくつかの最先端技術に対して,アルゴリズムの有効性と質的,定量的な優位性を示す。
論文 参考訳(メタデータ) (2022-03-09T17:01:28Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - LEGAN: Disentangled Manipulation of Directional Lighting and Facial
Expressions by Leveraging Human Perceptual Judgements [7.5603864775031004]
顔画像の光と表情を協調的に操作するための知覚的品質判断を利用する新しい合成フレームワーク LEGAN を提案する。
LEGANは、所望の出力画像にアップスケールする前に、照明と表現のサブスペースをアンタングルし、特徴空間で変換を行う。
また,LEGANおよび他のGANモデルにより合成された画像を用いて知覚的研究を行い,品質推定と視覚的忠実度との相関を示す。
論文 参考訳(メタデータ) (2020-10-04T01:56:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。