論文の概要: Text2Face: A Multi-Modal 3D Face Model
- arxiv url: http://arxiv.org/abs/2303.02688v2
- Date: Wed, 8 Mar 2023 11:28:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 16:42:05.319273
- Title: Text2Face: A Multi-Modal 3D Face Model
- Title(参考訳): Text2Face:マルチモーダルな3D顔モデル
- Authors: Will Rowan, Patrik Huber, Nick Pears, Andrew Keeling
- Abstract要約: そこで本研究では,3次元顔形状をテキストプロンプトを用いて直接的かつ完全に定義できる,最初の3次元変形可能なモデリング手法を提案する。
マルチモーダル学習における作業に基づいて、FLAMEヘッドモデルを共通の画像とテキストの潜在空間に拡張する。
当社の方法であるText2Faceには,すでに自然言語で入力されている警察用フォトフィットの生成など,多くの応用がある。
- 参考スコア(独自算出の注目度): 1.0552465253379133
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the first 3D morphable modelling approach, whereby 3D face shape
can be directly and completely defined using a textual prompt. Building on work
in multi-modal learning, we extend the FLAME head model to a common
image-and-text latent space. This allows for direct 3D Morphable Model (3DMM)
parameter generation and therefore shape manipulation from textual
descriptions. Our method, Text2Face, has many applications; for example:
generating police photofits where the input is already in natural language. It
further enables multi-modal 3DMM image fitting to sketches and sculptures, as
well as images.
- Abstract(参考訳): 本稿では,テキストプロンプトを用いて3次元顔形状を直接かつ完全に定義できる最初の3次元モーファブルモデリング手法を提案する。
マルチモーダル学習による作業に基づいて,フレイムヘッドモデルを共通の画像とテキストの潜在空間に拡張する。
これにより、直接3D形態モデル(3DMM)パラメータ生成が可能となり、テキスト記述からの形状操作が可能となる。
当社の方法であるText2Faceには,すでに自然言語で入力されている警察用フォトフィットの生成など,多くの応用がある。
さらに、スケッチや彫刻、画像に適合するマルチモーダルな3DMM画像を可能にする。
関連論文リスト
- ViewDiff: 3D-Consistent Image Generation with Text-to-Image Models [65.22994156658918]
実世界のデータから1つの認知過程において多視点画像を生成することを学習する手法を提案する。
我々は、任意の視点でより多くの3D一貫性のある画像をレンダリングする自己回帰生成を設計する。
論文 参考訳(メタデータ) (2024-03-04T07:57:05Z) - 3DStyle-Diffusion: Pursuing Fine-grained Text-driven 3D Stylization with
2D Diffusion Models [102.75875255071246]
テキスト駆動型スタイリングによる3Dコンテンツ作成は、マルチメディアとグラフィックコミュニティにとって根本的な課題となっている。
2次元拡散モデルから制御可能な外観と幾何学的ガイダンスを付加した3次元メッシュのきめ細かいスタイリングをトリガーする新しい3DStyle-Diffusionモデルを提案する。
論文 参考訳(メタデータ) (2023-11-09T15:51:27Z) - Towards High-Fidelity Text-Guided 3D Face Generation and Manipulation
Using only Images [105.92311979305065]
TG-3DFaceは、よりリアルで美的な3D顔を生成し、ラテント3Dよりも9%のマルチビュー一貫性(MVIC)を高めている。
TG-3DFaceによって生成された描画顔画像は、テキストから2Dの顔/画像生成モデルよりも高いFIDとCLIPスコアを達成する。
論文 参考訳(メタデータ) (2023-08-31T14:26:33Z) - Articulated 3D Head Avatar Generation using Text-to-Image Diffusion
Models [107.84324544272481]
多様な頭部アバターを合成する能力は、拡張現実、撮影、教育など、多くの応用に不可欠である。
テキスト誘導型3Dオブジェクト生成に関する最近の研究は、これらのニーズに対処する上で大きな可能性を秘めている。
拡散に基づく頭部アバターは,この課題に対する最先端のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-10T19:15:32Z) - Single-Shot Implicit Morphable Faces with Consistent Texture
Parameterization [91.52882218901627]
本稿では,3次元形態素な顔モデルを構築するための新しい手法を提案する。
本手法は, 最先端手法と比較して, フォトリアリズム, 幾何, 表現精度を向上する。
論文 参考訳(メタデータ) (2023-05-04T17:58:40Z) - ClipFace: Text-guided Editing of Textured 3D Morphable Models [33.83015491013442]
ClipFaceはテクスチャ化された顔の3次元形態素モデルのテキスト誘導編集のための新しい自己教師型アプローチである。
ユーザフレンドリーな言語プロンプトを用いて表現の制御と3D顔の出現を可能にする。
我々のモデルは、事前訓練されたCLIPモデルに基づいて、差別化可能なレンダリングと損失を利用して、自己教師型で訓練される。
論文 参考訳(メタデータ) (2022-12-02T19:01:08Z) - 3D-TOGO: Towards Text-Guided Cross-Category 3D Object Generation [107.46972849241168]
3D-TOGOモデルは、良好なテクスチャを持つニューラルレージアンスフィールドの形で3Dオブジェクトを生成する。
最大3Dオブジェクトデータセット(ABO)の実験を行い、3D-TOGOが高品質な3Dオブジェクトをより良く生成できることを検証する。
論文 参考訳(メタデータ) (2022-12-02T11:31:49Z) - Building 3D Generative Models from Minimal Data [3.472931603805115]
一つの3Dテンプレート(1人1人ではなく1人1人)で顔の認識が可能であることを示す。
我々は,1つの3次元テンプレートと少数の2次元画像を用いて,3次元顔の分布の学習を可能にする,予備的な教師なし学習フレームワークにモデルを拡張した。
論文 参考訳(メタデータ) (2022-03-04T20:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。