論文の概要: MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait
Editing
- arxiv url: http://arxiv.org/abs/2010.16417v1
- Date: Fri, 30 Oct 2020 17:59:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 17:03:18.233029
- Title: MichiGAN: Multi-Input-Conditioned Hair Image Generation for Portrait
Editing
- Title(参考訳): ミシガン州:ポートレート編集のためのマルチインプットコンディショニングヘア画像生成
- Authors: Zhentao Tan and Menglei Chai and Dongdong Chen and Jing Liao and Qi
Chu and Lu Yuan and Sergey Tulyakov and Nenghai Yu
- Abstract要約: MichiGANはインタラクティブな顔料の毛髪操作のための条件付き画像生成手法である。
我々は, 形状, 構造, 外観, 背景など, 主要毛髪の視覚的要因のすべてをユーザコントロールする。
また,直感的かつ高レベルなユーザ入力を投影することで,髪の直感的な操作を可能にするインタラクティブな肖像画毛髪編集システムを構築した。
- 参考スコア(独自算出の注目度): 122.82964863607938
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the recent success of face image generation with GANs, conditional
hair editing remains challenging due to the under-explored complexity of its
geometry and appearance. In this paper, we present MichiGAN
(Multi-Input-Conditioned Hair Image GAN), a novel conditional image generation
method for interactive portrait hair manipulation. To provide user control over
every major hair visual factor, we explicitly disentangle hair into four
orthogonal attributes, including shape, structure, appearance, and background.
For each of them, we design a corresponding condition module to represent,
process, and convert user inputs, and modulate the image generation pipeline in
ways that respect the natures of different visual attributes. All these
condition modules are integrated with the backbone generator to form the final
end-to-end network, which allows fully-conditioned hair generation from
multiple user inputs. Upon it, we also build an interactive portrait hair
editing system that enables straightforward manipulation of hair by projecting
intuitive and high-level user inputs such as painted masks, guiding strokes, or
reference photos to well-defined condition representations. Through extensive
experiments and evaluations, we demonstrate the superiority of our method
regarding both result quality and user controllability. The code is available
at https://github.com/tzt101/MichiGAN.
- Abstract(参考訳): GANによる顔画像生成の成功にもかかわらず、その幾何学と外観の未探索の複雑さのため、条件付き毛髪編集は難しいままである。
本稿では,インタラクティブな肖像画毛髪操作のための条件付き画像生成手法であるMulti-Input-Conditioned Hair Image GANを提案する。
すべての主要毛髪視覚因子をユーザ制御するために、毛髪を形、構造、外観、背景の4つの直交属性に明示的に区別する。
それぞれに対して,ユーザ入力を表現,処理,変換するための条件モジュールを設計し,異なる視覚属性の性質を尊重する方法で画像生成パイプラインを変調する。
これらの条件モジュールはすべて、バックボーンジェネレータと統合され、最終的なエンドツーエンドネットワークを形成し、複数のユーザ入力から完全に条件付き毛髪生成を可能にする。
さらに,絵の具やストロークの案内,参照写真などの直感的かつ高レベルの入力を,明確に定義された条件表現に投影することにより,髪髪の操作を容易にするインタラクティブな髪髪編集システムを構築した。
実験と評価を通じて,結果品質とユーザ制御性の両方に関して,本手法の優位性を実証した。
コードはhttps://github.com/tzt101/michiganで入手できる。
関連論文リスト
- PixWizard: Versatile Image-to-Image Visual Assistant with Open-Language Instructions [66.92809850624118]
PixWizardは、画像生成、操作、翻訳を自由言語命令に基づいて行うために設計されたイメージ・ツー・イメージのビジュアルアシスタントである。
我々は、様々な視覚タスクを統一された画像テキスト・画像生成フレームワークに取り組み、Omni Pixel-to-Pixel Instruction-Tuningデータセットをキュレートする。
我々の実験は、PixWizardが様々な解像度の画像に対して印象的な生成能力と理解能力を示すだけでなく、目に見えないタスクや人間の指示で有望な一般化能力を示すことを示した。
論文 参考訳(メタデータ) (2024-09-23T17:59:46Z) - Perm: A Parametric Representation for Multi-Style 3D Hair Modeling [22.790597419351528]
Permは、さまざまな毛髪関連の応用を促進するために設計された人間の3D毛髪のパラメトリックモデルである。
周波数領域におけるPCAに基づくストランド表現を用いて,グローバルヘア形状と局所ストランド詳細をアンタングル化することを提案する。
これらのテクスチャは後に異なる生成モデルでパラメータ化され、ヘアモデリングプロセスの一般的な段階をエミュレートする。
論文 参考訳(メタデータ) (2024-07-28T10:05:11Z) - MeGA: Hybrid Mesh-Gaussian Head Avatar for High-Fidelity Rendering and Head Editing [34.31657241047574]
より適切な表現で異なるヘッドコンポーネントをモデル化するハイブリッドメッシュ・ガウスヘッドアバター(MeGA)を提案する。
MeGAは、ヘッド全体の高忠実度レンダリングを生成し、自然に下流タスクをサポートする。
NeRSembleデータセットの実験は、我々の設計の有効性を実証している。
論文 参考訳(メタデータ) (2024-04-29T18:10:12Z) - HairCLIPv2: Unifying Hair Editing via Proxy Feature Blending [94.39417893972262]
HairCLIPは、テキスト記述や参照画像に基づいた毛髪編集を可能にする最初の作品である。
本稿では,上述したすべてのインタラクションを一つの統一フレームワークでサポートすることを目的としたHairCLIPv2を提案する。
鍵となるアイデアは、すべてのヘア編集タスクをヘア転写タスクに変換し、それに応じて編集条件を異なるプロキシに変換することである。
論文 参考訳(メタデータ) (2023-10-16T17:59:58Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - HairCLIP: Design Your Hair by Text and Reference Image [100.85116679883724]
本稿では, 毛髪属性を個別に, 共同で操作できる新しい毛髪編集インタラクションモードを提案する。
画像とテキストの条件を共有埋め込み空間にエンコードし、統一的なヘア編集フレームワークを提案する。
念入りに設計されたネットワーク構造と損失関数により,我々のフレームワークは高品質な毛髪編集を行うことができる。
論文 参考訳(メタデータ) (2021-12-09T18:59:58Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z) - Intuitive, Interactive Beard and Hair Synthesis with Generative Models [38.93415643177721]
画像中の顔の毛髪の現実的な変化を合成するためのインタラクティブなアプローチを提案する。
我々はニューラルネットワークパイプラインを用いて、ターゲット画像中の顔の毛髪の現実的で詳細な画像を1秒未満で合成する。
プロトタイプのユーザインタフェースで魅力的なインタラクティブな編集結果を示し、初心者のユーザが生成した画像を段階的に洗練して、所望のヘアスタイルに適合させることができる。
論文 参考訳(メタデータ) (2020-04-15T01:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。