論文の概要: Text2Mesh: Text-Driven Neural Stylization for Meshes
- arxiv url: http://arxiv.org/abs/2112.03221v1
- Date: Mon, 6 Dec 2021 18:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 15:27:01.727047
- Title: Text2Mesh: Text-Driven Neural Stylization for Meshes
- Title(参考訳): text2mesh: メッシュのためのテキスト駆動ニューラルスタイライゼーション
- Authors: Oscar Michel, Roi Bar-On, Richard Liu, Sagie Benaim, Rana Hanocka
- Abstract要約: 筆者らのフレームワークText2Meshは,対象のテキストプロンプトに適合する色や局所的な幾何学的詳細を予測することにより,3Dメッシュをスタイリングする。
ニューラルネットワークと結合した固定メッシュ入力(コンテンツ)を用いた3次元物体の非交叉表現をニューラルネットワークと呼ぶ。
スタイルを変更するために、CLIPの表現力を利用してテキストプロンプト(記述スタイル)とスタイル化されたメッシュの類似度スコアを得る。
- 参考スコア(独自算出の注目度): 18.435567297462416
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we develop intuitive controls for editing the style of 3D
objects. Our framework, Text2Mesh, stylizes a 3D mesh by predicting color and
local geometric details which conform to a target text prompt. We consider a
disentangled representation of a 3D object using a fixed mesh input (content)
coupled with a learned neural network, which we term neural style field
network. In order to modify style, we obtain a similarity score between a text
prompt (describing style) and a stylized mesh by harnessing the
representational power of CLIP. Text2Mesh requires neither a pre-trained
generative model nor a specialized 3D mesh dataset. It can handle low-quality
meshes (non-manifold, boundaries, etc.) with arbitrary genus, and does not
require UV parameterization. We demonstrate the ability of our technique to
synthesize a myriad of styles over a wide variety of 3D meshes.
- Abstract(参考訳): 本研究では3次元オブジェクトのスタイルを編集するための直感的な制御を開発する。
筆者らのフレームワークText2Meshは,対象のテキストプロンプトに適合する色や局所的な幾何学的詳細を予測することにより,3Dメッシュをスタイリングする。
本研究では,固定メッシュ入力(コンテンツ)と学習ニューラルネットワークを組み合わせた3次元オブジェクトの異方性表現について検討する。
スタイルを変更するために、CLIPの表現力を利用してテキストプロンプト(記述スタイル)とスタイル化されたメッシュの類似度スコアを得る。
text2meshは事前学習された生成モデルや特殊な3dメッシュデータセットを必要としない。
低品質メッシュ(非多様体、境界など)を任意の属で扱うことができ、UVパラメータ化を必要としない。
我々は,多種多様な3dメッシュ上で無数のスタイルを合成する手法の能力を実証する。
関連論文リスト
- DreamMesh: Jointly Manipulating and Texturing Triangle Meshes for Text-to-3D Generation [149.77077125310805]
我々はDreamMeshを提案する。DreamMeshは、明確に定義された表面(三角形メッシュ)をピボットして高忠実な3Dモデルを生成する、新しいテキスト・ツー・3Dアーキテクチャである。
粗い段階では、メッシュはまずテキスト誘導ジャコビアンによって変形し、その後DreamMeshは2D拡散モデルを用いてメッシュをテクスチャ化する。
細かい段階では、DreamMeshはメッシュを共同で操作し、テクスチャマップを洗練し、高品質なトライアングルメッシュを高忠実なテクスチャ素材で実現する。
論文 参考訳(メタデータ) (2024-09-11T17:59:02Z) - Bridging 3D Gaussian and Mesh for Freeview Video Rendering [57.21847030980905]
GauMeshはダイナミックシーンのモデリングとレンダリングのために3D GaussianとMeshをブリッジする。
提案手法は, 動的シーンの異なる部分を表現するために, プリミティブの適切なタイプに適応することを示す。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - 3DStyle-Diffusion: Pursuing Fine-grained Text-driven 3D Stylization with
2D Diffusion Models [102.75875255071246]
テキスト駆動型スタイリングによる3Dコンテンツ作成は、マルチメディアとグラフィックコミュニティにとって根本的な課題となっている。
2次元拡散モデルから制御可能な外観と幾何学的ガイダンスを付加した3次元メッシュのきめ細かいスタイリングをトリガーする新しい3DStyle-Diffusionモデルを提案する。
論文 参考訳(メタデータ) (2023-11-09T15:51:27Z) - Mesh Neural Cellular Automata [62.101063045659906]
本稿では,UVマップを必要とせずに3次元メッシュ上で動的テクスチャを直接合成するメッシュニューラルセルオートマタ(MeshNCA)を提案する。
IcosphereメッシュでのみトレーニングされたMeshNCAは、驚くべきテストタイムの一般化を示し、目に見えないメッシュ上でテクスチャをリアルタイムで合成する。
論文 参考訳(メタデータ) (2023-11-06T01:54:37Z) - Text2Room: Extracting Textured 3D Meshes from 2D Text-to-Image Models [21.622420436349245]
入力としてテキストプロンプトからルームスケールのテクスチャ化された3Dメッシュを生成する方法であるText2Roomを提案する。
我々は、事前訓練された2次元テキスト・画像モデルを利用して、異なるポーズから画像列を合成する。
これらの出力を一貫した3次元シーン表現に引き上げるために、単眼深度推定とテキスト条件のインペイントモデルを組み合わせる。
論文 参考訳(メタデータ) (2023-03-21T16:21:02Z) - 3D Highlighter: Localizing Regions on 3D Shapes via Text Descriptions [14.65300898522962]
3D Highlighterは、テキストを入力としてメッシュ上のセマンティック領域をローカライズするテクニックである。
本システムでは,入力された3次元形状に非自明な概念をどこに配置すべきかを判断する能力を示す。
論文 参考訳(メタデータ) (2022-12-21T18:54:47Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z) - Deep Hybrid Self-Prior for Full 3D Mesh Generation [57.78562932397173]
本稿では,深部ニューラルネットワークにおける2D-3Dのハイブリッドな自己優先性を利用して,幾何学的品質を著しく向上する手法を提案する。
特に,まず3次元自己優先型3次元畳み込みニューラルネットワークを用いて初期メッシュを生成し,次いで2次元紫外線アトラスに3次元情報と色情報をエンコードする。
本手法は,スパース入力から高品質な3次元テクスチャメッシュモデルを復元し,テクスチャ品質とテクスチャ品質の両面で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-08-18T07:44:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。