論文の概要: An Unsupervised Approach towards Varying Human Skin Tone Using
Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2010.16092v1
- Date: Fri, 30 Oct 2020 06:27:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 16:52:52.789970
- Title: An Unsupervised Approach towards Varying Human Skin Tone Using
Generative Adversarial Networks
- Title(参考訳): ジェネレーティブ・ディバイサル・ネットワークを用いた人間の皮膚緊張を抑えるための教師なしアプローチ
- Authors: Debapriya Roy, Diganta Mukherjee and Bhabatosh Chanda
- Abstract要約: 人の肌の色を変えるモデルを提案する。
肌の色の変化を所望する所望の変化を示す値の人物または集団の入力画像が公平または暗黒に与えられた場合、画像中の人物の肌色を変えることができる。
- 参考スコア(独自算出の注目度): 3.839742791472842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing popularity of augmented and virtual reality, retailers
are now focusing more towards customer satisfaction to increase the amount of
sales. Although augmented reality is not a new concept but it has gained much
needed attention over the past few years. Our present work is targeted towards
this direction which may be used to enhance user experience in various virtual
and augmented reality based applications. We propose a model to change skin
tone of a person. Given any input image of a person or a group of persons with
some value indicating the desired change of skin color towards fairness or
darkness, this method can change the skin tone of the persons in the image.
This is an unsupervised method and also unconstrained in terms of pose,
illumination, number of persons in the image etc. The goal of this work is to
reduce the time and effort which is generally required for changing the skin
tone using existing applications (e.g., Photoshop) by professionals or novice.
To establish the efficacy of this method we have compared our result with that
of some popular photo editor and also with the result of some existing
benchmark method related to human attribute manipulation. Rigorous experiments
on different datasets show the effectiveness of this method in terms of
synthesizing perceptually convincing outputs.
- Abstract(参考訳): 拡張現実(AR)や仮想現実(VR)の普及に伴い、小売店は売上を増やすために顧客満足度を重視している。
拡張現実は新しい概念ではないが、ここ数年で多くの注目を集めてきた。
本研究は,様々な仮想および拡張現実アプリケーションにおいて,ユーザエクスペリエンスを向上させるために使用されるであろうこの方向を対象としている。
人の肌の色を変えるモデルを提案する。
肌の色の変化を所望する所望の変化を示す値の人物または集団の入力画像が公平または暗黒に与えられた場合、画像中の人物の肌色を変えることができる。
これは教師なしの方法であり、ポーズ、照明、人物数などの観点からも制限されていない。
この研究の目的は、プロや初心者が既存のアプリケーション(Photoshopなど)を使って肌の色を変えるのに必要な時間と労力を減らすことである。
本手法の有効性を確立するため,本手法は一般的なフォトエディタと,ヒューマン属性操作に関連する既存のベンチマーク手法との比較を行った。
異なるデータセットに対する厳密な実験は、知覚的に説得力のある出力を合成することで、この手法の有効性を示す。
関連論文リスト
- TEDRA: Text-based Editing of Dynamic and Photoreal Actors [59.480513384611804]
TEDRAはアバターのテキストベースの編集を可能にする最初の方法である。
我々は、実際の俳優の制御可能で高忠実なデジタルレプリカを作成するためにモデルを訓練する。
提供されるテキストプロンプトに基づいて動的アバターを変更する。
論文 参考訳(メタデータ) (2024-08-28T17:59:02Z) - Texture-Preserving Diffusion Models for High-Fidelity Virtual Try-On [29.217423805933727]
拡散モデルに基づくアプローチは,画像合成タスクに優れており,近年普及している。
本稿では,仮想試行のためのテクスチャ保存拡散(TPD)モデルを提案する。
第2に,被写体と参照衣料画像に基づいて,正確な塗布マスクを推定する拡散に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T12:43:22Z) - AvatarStudio: Text-driven Editing of 3D Dynamic Human Head Avatars [84.85009267371218]
本研究では,動的なフルヘッドアバターの外観を編集するテキストベースのAvatarStudioを提案する。
提案手法は,ニューラルフィールド(NeRF)を用いて人間の頭部のダイナミックなパフォーマンスを捉え,テキスト・ツー・イメージ拡散モデルを用いてこの表現を編集する。
提案手法は,全頭部を標準空間で編集し,事前学習した変形ネットワークを介して残時間ステップに伝達する。
論文 参考訳(メタデータ) (2023-06-01T11:06:01Z) - Synthesizing Photorealistic Virtual Humans Through Cross-modal
Disentanglement [0.8959668207214765]
口唇の動きを正確に表現できる高品質な仮想顔を合成するためのエンドツーエンドフレームワークを提案する。
提案手法はリアルタイムに動作し,現在の最先端技術と比較して優れた結果が得られる。
論文 参考訳(メタデータ) (2022-09-03T03:56:49Z) - Neural Novel Actor: Learning a Generalized Animatable Neural
Representation for Human Actors [98.24047528960406]
本稿では,複数の人物の多視点画像のスパース集合から,汎用的アニマタブルなニューラル表現を学習するための新しい手法を提案する。
学習された表現は、カメラのスパースセットから任意の人の新しいビューイメージを合成し、さらにユーザのポーズ制御でアニメーション化することができる。
論文 参考訳(メタデータ) (2022-08-25T07:36:46Z) - Color Invariant Skin Segmentation [17.501659517108884]
本稿では,カラー情報に頼らずに画像中の皮膚を自動的に検出する問題に対処する。
この研究の主な動機は、皮膚のトーン全体にわたって一貫性のある結果を達成することである。
我々はそのような情報がない場合によく機能する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-21T05:07:21Z) - Deep Saliency Prior for Reducing Visual Distraction [12.28561668097479]
画像の歪みを軽減するための強力な編集効果を多数生成する。
結果として生じる効果は、人間の視覚システムに関する認知研究と一致している。
本研究は,様々な自然画像に対して,オリジナル画像と編集結果との視線変化を評価し,評価するための知覚的研究を行う。
論文 参考訳(メタデータ) (2021-09-05T03:19:21Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z) - Enjoy Your Editing: Controllable GANs for Image Editing via Latent Space
Navigation [136.53288628437355]
コントロール可能なセマンティックイメージ編集により、ユーザーはクリック数回で画像属性全体を変更できる。
現在のアプローチでは、絡み合った属性編集、グローバルなイメージアイデンティティの変更、フォトリアリズムの低下に悩まされることが多い。
本稿では,主に定性評価に焦点を当てた先行研究とは異なり,制御可能な編集性能を測定するための定量的評価手法を提案する。
論文 参考訳(メタデータ) (2021-02-01T21:38:36Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。