論文の概要: HAAR: Text-Conditioned Generative Model of 3D Strand-based Human
Hairstyles
- arxiv url: http://arxiv.org/abs/2312.11666v1
- Date: Mon, 18 Dec 2023 19:19:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 17:56:51.785129
- Title: HAAR: Text-Conditioned Generative Model of 3D Strand-based Human
Hairstyles
- Title(参考訳): HAAR:3次元ストランド型ヒューマンヘアスタイルのテキスト記述生成モデル
- Authors: Vanessa Sklyarova, Egor Zakharov, Otmar Hilliges, Michael J. Black and
Justus Thies
- Abstract要約: そこで本研究では,3次元ヘアスタイルのための新しいストランドベース生成モデルであるHAARについて紹介する。
テキスト入力に基づいて、HAARは現代のコンピュータグラフィックスエンジンで生産レベルの資産として使用できる3Dヘアスタイルを生成する。
- 参考スコア(独自算出の注目度): 85.12672855502517
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present HAAR, a new strand-based generative model for 3D human hairstyles.
Specifically, based on textual inputs, HAAR produces 3D hairstyles that could
be used as production-level assets in modern computer graphics engines. Current
AI-based generative models take advantage of powerful 2D priors to reconstruct
3D content in the form of point clouds, meshes, or volumetric functions.
However, by using the 2D priors, they are intrinsically limited to only
recovering the visual parts. Highly occluded hair structures can not be
reconstructed with those methods, and they only model the ''outer shell'',
which is not ready to be used in physics-based rendering or simulation
pipelines. In contrast, we propose a first text-guided generative method that
uses 3D hair strands as an underlying representation. Leveraging 2D visual
question-answering (VQA) systems, we automatically annotate synthetic hair
models that are generated from a small set of artist-created hairstyles. This
allows us to train a latent diffusion model that operates in a common hairstyle
UV space. In qualitative and quantitative studies, we demonstrate the
capabilities of the proposed model and compare it to existing hairstyle
generation approaches.
- Abstract(参考訳): 3dヘアスタイルのための新しいストランドベース生成モデルであるhaarを提案する。
具体的には、テキスト入力に基づいて、HAARは現代のコンピュータグラフィックスエンジンで生産レベルの資産として使用できる3Dヘアスタイルを生成する。
現在のAIベースの生成モデルは、強力な2Dプリエントを利用して、ポイントクラウド、メッシュ、ボリューム機能という形で3Dコンテンツを再構築する。
しかし、2Dプリエントを使用することで、視覚的部分のみを回復することに本質的に制限される。
密閉されたヘア構造をこれらの方法で再構築することはできず、物理ベースのレンダリングやシミュレーションパイプラインで使用する準備ができていない 'outer shell' をモデル化するのみである。
対照的に,3dヘアストランドを基本表現とする最初のテキスト誘導生成法を提案する。
2d visual question-answering (vqa) システムを利用することで、人工毛髪モデルを自動的にアノテートします。
これにより、一般的なヘアスタイルUV空間で動作する潜伏拡散モデルを訓練することができる。
質的・定量的な研究では,提案モデルの能力を示し,既存のヘアスタイル生成手法と比較する。
関連論文リスト
- Human Hair Reconstruction with Strand-Aligned 3D Gaussians [39.32397354314153]
従来のヘアストランドと3Dガウスの二重表現を用いた新しいヘアモデリング手法を提案する。
ヒトのアバターをモデル化するための非構造ガウス的アプローチとは対照的に,本手法は3Dポリラインや鎖を用いて髪を再構築する。
提案手法はGaussian Haircutと呼ばれ, 合成シーンと実シーンで評価し, ストランドベースヘア再構築作業における最先端性能を実証する。
論文 参考訳(メタデータ) (2024-09-23T07:49:46Z) - Perm: A Parametric Representation for Multi-Style 3D Hair Modeling [22.790597419351528]
Permは、さまざまな毛髪関連の応用を促進するために設計された人間の3D毛髪のパラメトリックモデルである。
周波数領域におけるPCAに基づくストランド表現を用いて,グローバルヘア形状と局所ストランド詳細をアンタングル化することを提案する。
これらのテクスチャは後に異なる生成モデルでパラメータ化され、ヘアモデリングプロセスの一般的な段階をエミュレートする。
論文 参考訳(メタデータ) (2024-07-28T10:05:11Z) - Breathing New Life into 3D Assets with Generative Repainting [74.80184575267106]
拡散ベースのテキスト・ツー・イメージ・モデルは、ビジョン・コミュニティ、アーティスト、コンテンツ・クリエーターから大きな注目を集めた。
近年の研究では、拡散モデルとニューラルネットワークの絡み合いを利用した様々なパイプラインが提案されている。
予備訓練された2次元拡散モデルと標準3次元ニューラルラジアンスフィールドのパワーを独立したスタンドアロンツールとして検討する。
我々のパイプラインはテクスチャ化されたメッシュや無テクスチャのメッシュのような、レガシなレンダリング可能な幾何学を受け入れ、2D生成の洗練と3D整合性強化ツール間の相互作用をオーケストレーションします。
論文 参考訳(メタデータ) (2023-09-15T16:34:51Z) - NeuWigs: A Neural Dynamic Model for Volumetric Hair Capture and
Animation [23.625243364572867]
人間の髪のキャプチャーとアニメーションは、バーチャルリアリティーのための現実的なアバターを作成する上で大きな課題の2つだ。
データ駆動方式でこれらの課題に対処するために、頭から独立して毛髪をモデル化する2段階のアプローチを提案する。
本モデルでは, 毛髪観察を駆動信号として必要とせず, 新規な毛髪アニメーションを作成することができる。
論文 参考訳(メタデータ) (2022-12-01T16:09:54Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z) - NeuralHDHair: Automatic High-fidelity Hair Modeling from a Single Image
Using Implicit Neural Representations [40.14104266690989]
我々は単一画像から高忠実度毛髪をモデリングするための柔軟で完全な自動システムであるNeuralHDHairを紹介する。
本稿では,世界毛髪の特徴を表すために,新しいvoxel-aligned implicit function (VIFu)を提案する。
従来の毛髪成長アルゴリズムの効率を向上させるために, 推定した3次元毛髪の幾何学的特徴に基づいて, 局所的な神経暗黙関数を用いてストランドを成長させる。
論文 参考訳(メタデータ) (2022-05-09T10:39:39Z) - HVH: Learning a Hybrid Neural Volumetric Representation for Dynamic Hair
Performance Capture [11.645769995924548]
ライフスタイルの毛髪を捕えることは、その微細な幾何学的構造、複雑な物理的相互作用、そして非自明な視覚的外観のために特に困難である。
本稿では,数千のプリミティブで構成された斬新な容積表現を用いる。
提案手法は,記録されたマルチビューシーケンスのリアルなレンダリングを生成するだけでなく,新しい制御信号を提供することで,新しいヘア構成のレンダリングを生成する。
論文 参考訳(メタデータ) (2021-12-13T18:57:50Z) - i3DMM: Deep Implicit 3D Morphable Model of Human Heads [115.19943330455887]
本報告では,頭部の3次元形態素モデル(i3DMM)について述べる。
顔の形状、テクスチャ、表情を識別するだけでなく、髪を含む頭部全体をモデル化する。
アブレーション研究,最先端モデルとの比較,セマンティックヘッド編集やテクスチャ転送などの応用を用いて,i3DMMの利点を示す。
論文 参考訳(メタデータ) (2020-11-28T15:01:53Z) - Lifting 2D StyleGAN for 3D-Aware Face Generation [52.8152883980813]
我々は,3次元顔生成のための事前学習済みのStyleGAN2を切断し,持ち上げるLiftedGANというフレームワークを提案する。
本モデルは,(1)StyleGAN2の潜伏空間をテクスチャ,形状,視点,照明に分解し,(2)合成画像のための3D成分を生成することができるという意味で「3D認識」である。
論文 参考訳(メタデータ) (2020-11-26T05:02:09Z) - SMPLpix: Neural Avatars from 3D Human Models [56.85115800735619]
従来のレンダリングと画素空間で動作する最新の生成ネットワークのギャップを埋める。
我々は、スパースな3Dメッシュ頂点をフォトリアリスティックな画像に変換するネットワークを訓練する。
我々は,フォトリアリズムのレベルとレンダリング効率の両面で,従来の微分可能よりも優位性を示す。
論文 参考訳(メタデータ) (2020-08-16T10:22:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。