論文の概要: ClipMatrix: Text-controlled Creation of 3D Textured Meshes
- arxiv url: http://arxiv.org/abs/2109.12922v1
- Date: Mon, 27 Sep 2021 10:11:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 02:10:22.301377
- Title: ClipMatrix: Text-controlled Creation of 3D Textured Meshes
- Title(参考訳): ClipMatrix: 3Dテクスチャメッシュのテキスト制御による作成
- Authors: Nikolay Jetchev
- Abstract要約: テキストプロンプトによって制御されるテクスチャ化された3dメッシュを作成するための新しいアルゴリズムを提案する。
提案手法は高分解能な3dメッシュを生成し,3dアセットの自動化とAI制御のための新たな可能性を開く。
- 参考スコア(独自算出の注目度): 1.6752182911522517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: If a picture is worth thousand words, a moving 3d shape must be worth a
million. We build upon the success of recent generative methods that create
images fitting the semantics of a text prompt, and extend it to the controlled
generation of 3d objects. We present a novel algorithm for the creation of
textured 3d meshes, controlled by text prompts. Our method creates
aesthetically pleasing high resolution articulated 3d meshes, and opens new
possibilities for automation and AI control of 3d assets. We call it
"ClipMatrix" because it leverages CLIP text embeddings to breed new digital 3d
creatures, a nod to the Latin meaning of the word "matrix" - "mother". See the
online gallery for a full impression of our method's capability.
- Abstract(参考訳): 写真が1000語に値するなら、動く3d形状は100万語でなければならない。
我々は,テキストプロンプトのセマンティクスに適合した画像を生成し,それを制御された3Dオブジェクトに拡張する,最近の生成手法の成功に基づいて構築する。
本稿では,テキストプロンプトによって制御されるテクスチャ付き3dメッシュを作成するための新しいアルゴリズムを提案する。
本手法は,高分解能3dメッシュを審美的に再現し,自動化と3dアセットのai制御の新たな可能性を開く。
これは、CLIPテキストの埋め込みを利用して新しいデジタル3d生物を産み出すためであり、これはラテン語で「マトリクス」を意味する「母」を意味する。
当社の手法の能力の完全な印象については、オンラインギャラリーを参照してください。
関連論文リスト
- iControl3D: An Interactive System for Controllable 3D Scene Generation [57.048647153684485]
iControl3Dは、ユーザがカスタマイズ可能な3Dシーンを正確なコントロールで生成およびレンダリングできるようにする、新しいインタラクティブシステムである。
我々は3Dメッシュを仲介プロキシとして利用し、個別の2D拡散生成画像を結合的で統一された3Dシーン表現に反復的にマージする。
私たちのニューラルレンダリングインターフェースは、ユーザが自分のシーンのラディアンスフィールドをオンラインで構築し、シーン全体をナビゲートすることを可能にする。
論文 参考訳(メタデータ) (2024-08-03T06:35:09Z) - Learning Continuous 3D Words for Text-to-Image Generation [44.210565557606465]
本稿では,画像中の複数の属性の微粒化制御をユーザに提供するアプローチを提案する。
本手法は,複数の連続した3Dワードとテキスト記述を同時に行うことで,画像生成を条件付けることができる。
論文 参考訳(メタデータ) (2024-02-13T18:34:10Z) - 3DStyle-Diffusion: Pursuing Fine-grained Text-driven 3D Stylization with
2D Diffusion Models [102.75875255071246]
テキスト駆動型スタイリングによる3Dコンテンツ作成は、マルチメディアとグラフィックコミュニティにとって根本的な課題となっている。
2次元拡散モデルから制御可能な外観と幾何学的ガイダンスを付加した3次元メッシュのきめ細かいスタイリングをトリガーする新しい3DStyle-Diffusionモデルを提案する。
論文 参考訳(メタデータ) (2023-11-09T15:51:27Z) - Towards High-Fidelity Text-Guided 3D Face Generation and Manipulation
Using only Images [105.92311979305065]
TG-3DFaceは、よりリアルで美的な3D顔を生成し、ラテント3Dよりも9%のマルチビュー一貫性(MVIC)を高めている。
TG-3DFaceによって生成された描画顔画像は、テキストから2Dの顔/画像生成モデルよりも高いFIDとCLIPスコアを達成する。
論文 参考訳(メタデータ) (2023-08-31T14:26:33Z) - Articulated 3D Head Avatar Generation using Text-to-Image Diffusion
Models [107.84324544272481]
多様な頭部アバターを合成する能力は、拡張現実、撮影、教育など、多くの応用に不可欠である。
テキスト誘導型3Dオブジェクト生成に関する最近の研究は、これらのニーズに対処する上で大きな可能性を秘めている。
拡散に基づく頭部アバターは,この課題に対する最先端のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-10T19:15:32Z) - ATT3D: Amortized Text-to-3D Object Synthesis [78.96673650638365]
我々は、個別にではなく、統一されたモデルと同時に多くのプロンプトをトレーニングすることで、テキストプロンプトに対する最適化を保留する。
我々のフレームワークであるAmortized text-to-3D (ATT3D)は、プロンプト間の知識共有を可能にし、未知のセットアップに一般化し、新しいアセットのためのテキストと単純なアニメーション間のスムーズなスムーズさを実現する。
論文 参考訳(メタデータ) (2023-06-06T17:59:10Z) - TAPS3D: Text-Guided 3D Textured Shape Generation from Pseudo Supervision [114.56048848216254]
テキスト誘導型3次元形状生成器を疑似キャプションで訓練するための新しいフレームワークTAPS3Dを提案する。
レンダリングされた2D画像に基づいて,CLIP語彙から関連する単語を検索し,テンプレートを用いて擬似キャプションを構築する。
構築したキャプションは、生成された3次元形状の高レベルなセマンティック管理を提供する。
論文 参考訳(メタデータ) (2023-03-23T13:53:16Z) - Text2Room: Extracting Textured 3D Meshes from 2D Text-to-Image Models [21.622420436349245]
入力としてテキストプロンプトからルームスケールのテクスチャ化された3Dメッシュを生成する方法であるText2Roomを提案する。
我々は、事前訓練された2次元テキスト・画像モデルを利用して、異なるポーズから画像列を合成する。
これらの出力を一貫した3次元シーン表現に引き上げるために、単眼深度推定とテキスト条件のインペイントモデルを組み合わせる。
論文 参考訳(メタデータ) (2023-03-21T16:21:02Z) - Text2Mesh: Text-Driven Neural Stylization for Meshes [18.435567297462416]
筆者らのフレームワークText2Meshは,対象のテキストプロンプトに適合する色や局所的な幾何学的詳細を予測することにより,3Dメッシュをスタイリングする。
ニューラルネットワークと結合した固定メッシュ入力(コンテンツ)を用いた3次元物体の非交叉表現をニューラルネットワークと呼ぶ。
スタイルを変更するために、CLIPの表現力を利用してテキストプロンプト(記述スタイル)とスタイル化されたメッシュの類似度スコアを得る。
論文 参考訳(メタデータ) (2021-12-06T18:23:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。