論文の概要: PromptVFX: Text-Driven Fields for Open-World 3D Gaussian Animation
- arxiv url: http://arxiv.org/abs/2506.01091v1
- Date: Sun, 01 Jun 2025 17:22:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.926676
- Title: PromptVFX: Text-Driven Fields for Open-World 3D Gaussian Animation
- Title(参考訳): PromptVFX: オープンワールド3Dガウスアニメーションのためのテキスト駆動フィールド
- Authors: Mert Kiray, Paul Uhlenbruck, Nassir Navab, Benjamin Busam,
- Abstract要約: フィールド予測タスクとして3Dアニメーションを再構成し、3Dガウスに作用する時間変化の4Dフロー場を推定するテキスト駆動フレームワークを導入する。
大規模言語モデル(LLM)と視覚言語モデル(VLM)を関数生成に活用することにより,任意のプロンプトを解釈し,色,不透明度,位置をリアルタイムで更新する。
- 参考スコア(独自算出の注目度): 49.91188543847175
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Visual effects (VFX) are key to immersion in modern films, games, and AR/VR. Creating 3D effects requires specialized expertise and training in 3D animation software and can be time consuming. Generative solutions typically rely on computationally intense methods such as diffusion models which can be slow at 4D inference. We reformulate 3D animation as a field prediction task and introduce a text-driven framework that infers a time-varying 4D flow field acting on 3D Gaussians. By leveraging large language models (LLMs) and vision-language models (VLMs) for function generation, our approach interprets arbitrary prompts (e.g., "make the vase glow orange, then explode") and instantly updates color, opacity, and positions of 3D Gaussians in real time. This design avoids overheads such as mesh extraction, manual or physics-based simulations and allows both novice and expert users to animate volumetric scenes with minimal effort on a consumer device even in a web browser. Experimental results show that simple textual instructions suffice to generate compelling time-varying VFX, reducing the manual effort typically required for rigging or advanced modeling. We thus present a fast and accessible pathway to language-driven 3D content creation that can pave the way to democratize VFX further.
- Abstract(参考訳): 視覚効果(VFX)は、現代映画、ゲーム、AR/VRに没入するための鍵となる。
3Dエフェクトを作成するには、専門的な専門知識と3Dアニメーションソフトウェアでのトレーニングが必要で、時間を要する可能性がある。
生成的解は典型的には、4次元推論で遅くなる拡散モデルのような計算的に強い方法に依存する。
フィールド予測タスクとして3Dアニメーションを再構成し、3Dガウスに作用する時間変化の4Dフロー場を推定するテキスト駆動フレームワークを導入する。
大規模言語モデル (LLM) と視覚言語モデル (VLM) を関数生成に活用することにより, 任意のプロンプト(例えば, 「花瓶をオレンジ色に光らせ, 爆発させる」)を解釈し, 色, 不透明度, 位置をリアルタイムで更新する。
この設計は、メッシュ抽出、手動または物理ベースのシミュレーションなどのオーバーヘッドを回避し、初心者と専門家の両方のユーザが、Webブラウザでもコンシューマデバイスに最小限の労力でボリュームシーンをアニメーションできる。
実験の結果、単純なテキストによる指示は、説得力のある時間変化VFXを生成するのに十分であることが示され、リギングや高度なモデリングに必要な手作業が削減される。
そこで我々は,VFXの民主化をさらに進めることのできる,言語駆動型3Dコンテンツ作成のための,高速かつアクセス可能な経路を提示する。
関連論文リスト
- Tex4D: Zero-shot 4D Scene Texturing with Video Diffusion Models [54.35214051961381]
3Dメッシュはコンピュータビジョンとグラフィックスにおいて、アニメーションの効率と映画、ゲーム、AR、VRにおける最小限のメモリ使用のために広く利用されている。
しかし、メッシュのための時間的一貫性と現実的なテクスチャを作成することは、プロのアーティストにとって労働集約的だ。
本稿では、メッシュ配列から固有の幾何学とビデオ拡散モデルを統合することで、一貫したテクスチャを生成する3Dテクスチャシーケンスを提案する。
論文 参考訳(メタデータ) (2024-10-14T17:59:59Z) - Magic3DSketch: Create Colorful 3D Models From Sketch-Based 3D Modeling Guided by Text and Language-Image Pre-Training [2.9600148687385786]
CAD(Computer-Aided Design)のような従来の手法は、しばしば労働集約的でスキルの要求が多すぎるため、初心者には難しい。
提案手法であるMagic3DSketchは,スケッチを符号化して3Dメッシュを予測し,テキスト記述でガイドする手法である。
また,本手法は既存のテキスト・ツー・3D手法と比較して制御性が高い。
論文 参考訳(メタデータ) (2024-07-27T09:59:13Z) - iHuman: Instant Animatable Digital Humans From Monocular Videos [16.98924995658091]
モノクロビデオからアニマタブルな3Dデジタル人間を作るための,迅速かつシンプルで効果的な方法を提案する。
この研究は、人間の身体の正確な3Dメッシュ型モデリングの必要性を達成し、説明します。
我々の手法は(訓練時間の観点から)最も近い競合相手よりも桁違いに高速である。
論文 参考訳(メタデータ) (2024-07-15T18:51:51Z) - MotionDreamer: Exploring Semantic Video Diffusion features for Zero-Shot 3D Mesh Animation [10.263762787854862]
本稿では,ビデオ拡散モデルから抽出した動きに基づいて,様々な3次元形状の自動アニメーションを行う手法を提案する。
既存のコンピュータグラフィックスパイプラインと互換性のあるメッシュベースの明示的な表現を活用します。
我々の時間効率ゼロショット法は,多種多様な3次元形状を再アニメーションする優れた性能を実現する。
論文 参考訳(メタデータ) (2024-05-30T15:30:38Z) - BAGS: Building Animatable Gaussian Splatting from a Monocular Video with Diffusion Priors [28.033944084753035]
拡散前の単眼ビデオからアニマタブルな3次元ガウススプラッティングを構築する手法を提案する。
3Dガウス表現はトレーニングとレンダリングのプロセスを大幅に加速し、拡散先行法により、限られた視点で3Dモデルを学習することができる。
我々は、様々な実世界のビデオに対して広範囲に評価を行い、現在の最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-18T02:44:46Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal Pre-training Paradigm [111.16358607889609]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。