論文の概要: Intuitive, Interactive Beard and Hair Synthesis with Generative Models
- arxiv url: http://arxiv.org/abs/2004.06848v1
- Date: Wed, 15 Apr 2020 01:20:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 03:24:33.946587
- Title: Intuitive, Interactive Beard and Hair Synthesis with Generative Models
- Title(参考訳): 生成モデルを用いた直観的・インタラクティブなひげ・毛髪合成
- Authors: Kyle Olszewski, Duygu Ceylan, Jun Xing, Jose Echevarria, Zhili Chen,
Weikai Chen, Hao Li
- Abstract要約: 画像中の顔の毛髪の現実的な変化を合成するためのインタラクティブなアプローチを提案する。
我々はニューラルネットワークパイプラインを用いて、ターゲット画像中の顔の毛髪の現実的で詳細な画像を1秒未満で合成する。
プロトタイプのユーザインタフェースで魅力的なインタラクティブな編集結果を示し、初心者のユーザが生成した画像を段階的に洗練して、所望のヘアスタイルに適合させることができる。
- 参考スコア(独自算出の注目度): 38.93415643177721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an interactive approach to synthesizing realistic variations in
facial hair in images, ranging from subtle edits to existing hair to the
addition of complex and challenging hair in images of clean-shaven subjects. To
circumvent the tedious and computationally expensive tasks of modeling,
rendering and compositing the 3D geometry of the target hairstyle using the
traditional graphics pipeline, we employ a neural network pipeline that
synthesizes realistic and detailed images of facial hair directly in the target
image in under one second. The synthesis is controlled by simple and sparse
guide strokes from the user defining the general structural and color
properties of the target hairstyle. We qualitatively and quantitatively
evaluate our chosen method compared to several alternative approaches. We show
compelling interactive editing results with a prototype user interface that
allows novice users to progressively refine the generated image to match their
desired hairstyle, and demonstrate that our approach also allows for flexible
and high-fidelity scalp hair synthesis.
- Abstract(参考訳): 本稿では,顔の毛髪のリアルなバリエーションを画像で合成するインタラクティブな手法を提案する。
従来のグラフィクスパイプラインを用いて,対象毛髪の3次元形状をモデリング,レンダリング,合成する,退屈で計算コストのかかる作業を回避するため,ニューラルネットワークパイプラインを用いて,対象毛髪のリアルかつ詳細な画像を1秒以内に合成する。
この合成は、ターゲットヘアスタイルの一般的な構造および色特性を定義するユーザからの単純でスパースなガイドストロークによって制御される。
いくつかの代替手法と比較して,選択した手法を質的,定量的に評価する。
プロトタイプユーザインタフェースを用いたインタラクティブな編集結果を示し、初心者のユーザが生成した画像を段階的に洗練して所望のヘアスタイルに適合させることができるとともに、当社のアプローチが柔軟で高忠実な頭皮毛髪合成を可能にすることを示す。
関連論文リスト
- Human Hair Reconstruction with Strand-Aligned 3D Gaussians [39.32397354314153]
従来のヘアストランドと3Dガウスの二重表現を用いた新しいヘアモデリング手法を提案する。
ヒトのアバターをモデル化するための非構造ガウス的アプローチとは対照的に,本手法は3Dポリラインや鎖を用いて髪を再構築する。
提案手法はGaussian Haircutと呼ばれ, 合成シーンと実シーンで評価し, ストランドベースヘア再構築作業における最先端性能を実証する。
論文 参考訳(メタデータ) (2024-09-23T07:49:46Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - Neural Haircut: Prior-Guided Strand-Based Hair Reconstruction [4.714310894654027]
本研究は, 単眼ビデオや多視点画像から, 鎖レベルでの正確な髪形再構成を実現する手法を提案する。
ニューラル・ヘアカット(Neural Haircut)と呼ばれるこの組み合わせシステムは、再建されたヘアスタイルの高度なリアリズムとパーソナライズを実現している。
論文 参考訳(メタデータ) (2023-06-09T13:08:34Z) - Neural Strands: Learning Hair Geometry and Appearance from Multi-View
Images [40.91569888920849]
マルチビュー画像入力から正確な毛髪形状と外観をモデル化する新しい学習フレームワークであるNeural Strandsを提案する。
学習したヘアモデルは、高忠実度ビュー依存効果のあるあらゆる視点からリアルタイムでレンダリングすることができる。
論文 参考訳(メタデータ) (2022-07-28T13:08:46Z) - Drivable Volumetric Avatars using Texel-Aligned Features [52.89305658071045]
光テレプレゼンスは、動的に合成された外観を実現するために、高忠実度ボディモデリングと忠実な運転の両方を必要とする。
本稿では,現実人のフルボディアバターをモデリングし,駆動する際の2つの課題に対処するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T09:28:16Z) - Hair Color Digitization through Imaging and Deep Inverse Graphics [8.605763075773746]
逆グラフィックスとディープニューラルネットワークに基づくヘアカラーデジタル化手法を提案する。
提案するパイプラインは, 毛髪サンプルの色相をキャプチャし, 類似した外観で毛髪の合成画像をレンダリングする。
本手法は、制御された撮像装置、経路追跡レンダリング、および自己教師付き機械学習に基づく逆グラフィックモデルの組み合わせに基づく。
論文 参考訳(メタデータ) (2022-02-08T08:57:04Z) - HairCLIP: Design Your Hair by Text and Reference Image [100.85116679883724]
本稿では, 毛髪属性を個別に, 共同で操作できる新しい毛髪編集インタラクションモードを提案する。
画像とテキストの条件を共有埋め込み空間にエンコードし、統一的なヘア編集フレームワークを提案する。
念入りに設計されたネットワーク構造と損失関数により,我々のフレームワークは高品質な毛髪編集を行うことができる。
論文 参考訳(メタデータ) (2021-12-09T18:59:58Z) - MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait
Editing [122.82964863607938]
MichiGANはインタラクティブな顔料の毛髪操作のための条件付き画像生成手法である。
我々は, 形状, 構造, 外観, 背景など, 主要毛髪の視覚的要因のすべてをユーザコントロールする。
また,直感的かつ高レベルなユーザ入力を投影することで,髪の直感的な操作を可能にするインタラクティブな肖像画毛髪編集システムを構築した。
論文 参考訳(メタデータ) (2020-10-30T17:59:10Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。