論文の概要: 3DStyleGLIP: Part-Tailored Text-Guided 3D Neural Stylization
- arxiv url: http://arxiv.org/abs/2404.02634v2
- Date: Mon, 09 Dec 2024 06:44:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:48:06.328348
- Title: 3DStyleGLIP: Part-Tailored Text-Guided 3D Neural Stylization
- Title(参考訳): 3DStyleGLIP: テキストガイドによる3Dニューラルスティル化
- Authors: SeungJeh Chung, JooHyun Park, HyeongYeop Kang,
- Abstract要約: 3Dスタイリングは、特定のスタイルを三次元オブジェクトに適用することで、かなりの商業的可能性を秘めている。
近年の人工知能とテキスト駆動操作手法の進歩により、スタイリゼーションプロセスは直感的かつ自動化されつつある。
3DStyleGLIPはテキスト駆動3Dスタイリングに特化して設計された新しいフレームワークである。
- 参考スコア(独自算出の注目度): 1.3654846342364306
- License:
- Abstract: 3D stylization, the application of specific styles to three-dimensional objects, offers substantial commercial potential by enabling the creation of uniquely styled 3D objects tailored to diverse scenes. Recent advancements in artificial intelligence and text-driven manipulation methods have made the stylization process increasingly intuitive and automated. While these methods reduce human costs by minimizing reliance on manual labor and expertise, they predominantly focus on holistic stylization, neglecting the application of desired styles to individual components of a 3D object. This limitation restricts the fine-grained controllability. To address this gap, we introduce 3DStyleGLIP, a novel framework specifically designed for text-driven, part-tailored 3D stylization. Given a 3D mesh and a text prompt, 3DStyleGLIP utilizes the vision-language embedding space of the Grounded Language-Image Pre-training (GLIP) model to localize individual parts of the 3D mesh and modify their appearance to match the styles specified in the text prompt. 3DStyleGLIP effectively integrates part localization and stylization guidance within GLIP's shared embedding space through an end-to-end process, enabled by part-level style loss and two complementary learning techniques. This neural methodology meets the user's need for fine-grained style editing and delivers high-quality part-specific stylization results, opening new possibilities for customization and flexibility in 3D content creation. Our code and results are available at https://github.com/sj978/3DStyleGLIP.
- Abstract(参考訳): 特定のスタイルを3次元オブジェクトに適用する3Dスタイリングは、多様なシーンに合わせたユニークなスタイルの3Dオブジェクトの作成を可能にすることで、かなりの商業的可能性を秘めている。
近年の人工知能とテキスト駆動操作手法の進歩により、スタイリゼーションプロセスは直感的かつ自動化されつつある。
これらの手法は、手作業や専門知識への依存を最小限に抑えることで人的コストを削減するが、主に3Dオブジェクトの個々のコンポーネントへの望ましいスタイルの適用を無視して、全体的スタイリゼーションに焦点を当てる。
この制限はきめ細かい制御性を制限する。
このギャップに対処するため、3DStyleGLIPはテキスト駆動のパートテール3Dスタイリング用に特別に設計された新しいフレームワークである。
3Dメッシュとテキストプロンプトが与えられた3DStyleGLIPは、3Dメッシュの個々の部分をローカライズし、テキストプロンプトで指定されたスタイルに合わせて外観を変更するために、3Dメッシュの視覚言語埋め込み空間(GLIP)モデルを利用する。
3DStyleGLIPは、パートレベルのスタイル損失と2つの補完学習技術によって実現されたエンドツーエンドプロセスを通じて、GLIPの共有埋め込み空間内の部分ローカライゼーションとスタイリングガイダンスを効果的に統合する。
このニューラル方法論は、ユーザーがきめ細かなスタイルの編集を必要とし、高品質なパート固有のスタイリング結果を提供し、3Dコンテンツ作成におけるカスタマイズと柔軟性の新たな可能性を開く。
私たちのコードと結果はhttps://github.com/sj978/3DStyleGLIPで公開されています。
関連論文リスト
- StyleSplat: 3D Object Style Transfer with Gaussian Splatting [0.3374875022248866]
スタイル転送は、さまざまな芸術スタイルで3Dアセットを強化し、創造的な表現を変革する。
本稿では,3次元ガウス表現シーンにおける3次元オブジェクトのスタイリング手法であるStyleSplatを紹介する。
様々な3Dシーンやスタイルにまたがって有効性を示し、3D生成における制御とカスタマイズの強化を示す。
論文 参考訳(メタデータ) (2024-07-12T17:55:08Z) - Chat-Edit-3D: Interactive 3D Scene Editing via Text Prompts [76.73043724587679]
CE3Dと呼ばれる対話型3Dシーン編集手法を提案する。
Hash-Atlasは3Dシーンビューを表し、3Dシーンの編集を2Dアトラスイメージに転送する。
その結果、CE3Dは複数の視覚モデルを効果的に統合し、多様な視覚効果が得られることを示した。
論文 参考訳(メタデータ) (2024-07-09T13:24:42Z) - StylizedGS: Controllable Stylization for 3D Gaussian Splatting [53.0225128090909]
StylizedGSは知覚因子を適応的に制御する効率的な3Dニューラルスタイル転送フレームワークである。
本手法は,忠実なブラシストロークとフレキシブル制御による幾何整合性を特徴とする高品質なスタイリゼーションを実現する。
論文 参考訳(メタデータ) (2024-04-08T06:32:11Z) - TeMO: Towards Text-Driven 3D Stylization for Multi-Object Meshes [67.5351491691866]
我々は,多目的3Dシーンを解析し,そのスタイルを編集する,TeMOと呼ばれる新しいフレームワークを提案する。
提案手法は,高品質なスタイリングコンテンツを合成し,多目的3Dメッシュで既存手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-12-07T12:10:05Z) - Neural 3D Strokes: Creating Stylized 3D Scenes with Vectorized 3D
Strokes [20.340259111585873]
ニューラル3Dストロークス(Neural 3D Strokes)は、多視点2D画像から任意の新しいビューで3Dシーンのスタイリング画像を生成する新しい技術である。
提案手法は,ベクトルストロークによる人間のアートワークのプログレッシブ・ペインティングの過程をシミュレートし,イメージ・ツー・ペインティング法からインスピレーションを得ている。
論文 参考訳(メタデータ) (2023-11-27T09:02:21Z) - DeformToon3D: Deformable 3D Toonification from Neural Radiance Fields [96.0858117473902]
3Dトーン化には、テクスチャ化された幾何学とテクスチャで、アートドメインのスタイルをターゲットの3D顔に転送することが含まれる。
階層型3D GANに適した効果的なトーン化フレームワークであるDeformToon3Dを提案する。
提案手法は3次元トーン化を幾何学とテクスチャスタイリングのサブプロブレムに分解し,元の潜伏空間をよりよく保存する。
論文 参考訳(メタデータ) (2023-09-08T16:17:45Z) - HyperStyle3D: Text-Guided 3D Portrait Stylization via Hypernetworks [101.36230756743106]
本論文は,2次元画像の中間表現として,2次元領域と3次元領域を3次元フィールドで橋渡しする3次元GANの成功に着想を得たものである。
本稿では,3次元ポートレートスタイリングのための3次元認識型GANをベースとしたHyperStyle3Dという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-19T07:22:05Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。