論文の概要: TextMesh4D: High-Quality Text-to-4D Mesh Generation
- arxiv url: http://arxiv.org/abs/2506.24121v1
- Date: Mon, 30 Jun 2025 17:58:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.191857
- Title: TextMesh4D: High-Quality Text-to-4D Mesh Generation
- Title(参考訳): TextMesh4D: 高品質なテキストから4Dメッシュ生成
- Authors: Sisi Dai, Xinxin Su, Boyan Wan, Ruizhen Hu, Kai Xu,
- Abstract要約: 高品質なテキストから4D生成のための新しいフレームワークであるTextMesh4Dを紹介する。
提案手法では, 面ごとのヤコビアンをメッシュ表現として利用し, 4次元生成を静的オブジェクト生成と動的モーション合成の2段階に分解する。
実験により、TextMesh4Dは時間的一貫性、構造的忠実性、視覚的リアリズムの観点で、最先端の結果を示す。
- 参考スコア(独自算出の注目度): 13.069414103080447
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advancements in diffusion generative models significantly advanced image, video, and 3D content creation from user-provided text prompts. However, the challenging problem of dynamic 3D content generation (text-to-4D) with diffusion guidance remains largely unexplored. In this paper, we introduce TextMesh4D, a novel framework for high-quality text-to-4D generation. Our approach leverages per-face Jacobians as a differentiable mesh representation and decomposes 4D generation into two stages: static object creation and dynamic motion synthesis. We further propose a flexibility-rigidity regularization term to stabilize Jacobian optimization under video diffusion priors, ensuring robust geometric performance. Experiments demonstrate that TextMesh4D achieves state-of-the-art results in terms of temporal consistency, structural fidelity, and visual realism. Moreover, TextMesh4D operates with a low GPU memory overhead-requiring only a single 24GB GPU-offering a cost-effective yet high-quality solution for text-driven 4D mesh generation. The code will be released to facilitate future research in text-to-4D generation.
- Abstract(参考訳): 拡散生成モデルの最近の進歩は、ユーザが提供するテキストプロンプトによる画像、ビデオ、および3Dコンテンツの作成を大きく進歩させた。
しかし,拡散誘導による動的3次元コンテンツ生成(text-to-4D)の課題は未解決のままである。
本稿では,高品質なテキストから4D生成のための新しいフレームワークであるTextMesh4Dを紹介する。
提案手法では, 面ごとのヤコビアンをメッシュ表現として利用し, 4次元生成を静的オブジェクト生成と動的モーション合成の2段階に分解する。
さらに,ビデオ拡散前のジャコビアン最適化を安定化し,ロバストな幾何学的性能を確保するために,柔軟性-剛性正規化項を提案する。
実験により、TextMesh4Dは時間的一貫性、構造的忠実性、視覚的リアリズムの観点で最先端の結果を達成することが示された。
さらに、TextMesh4Dは低GPUメモリで動作し、24GBのGPUのみを必要とする。
コードは、テキストから4D生成における将来の研究を促進するためにリリースされる。
関連論文リスト
- AnimateAnyMesh: A Feed-Forward 4D Foundation Model for Text-Driven Universal Mesh Animation [57.199352741915625]
本稿では,任意の3Dメッシュの効率的なテキスト駆動アニメーションを可能にする最初のフィードフォワードフレームワークであるAnimateAnyMeshを紹介する。
我々のアプローチは、動的メッシュシーケンスを効果的に圧縮し再構成する新しいDyMeshVAEアーキテクチャを活用する。
また、DyMeshデータセットにもコントリビュートし、テキストアノテーション付き4M以上の動的メッシュシーケンスを格納しています。
論文 参考訳(メタデータ) (2025-06-11T17:55:16Z) - CT4D: Consistent Text-to-4D Generation with Animatable Meshes [53.897244823604346]
我々は,任意のユーザ供給プロンプトから一貫した4Dコンテンツを生成するために,アニマタブルメッシュを直接操作するCT4Dという新しいフレームワークを提案する。
我々のフレームワークは、テキスト整列メッシュの作成を強化するために、ユニークなGenerate-Refine-Animate (GRA)アルゴリズムを組み込んでいる。
定性的かつ定量的な実験結果から,我々のCT4Dフレームワークは,フレーム間の整合性の維持とグローバルジオメトリの保存において,既存のテキスト・ツー・4D技術を超えていることが示された。
論文 参考訳(メタデータ) (2024-08-15T14:41:34Z) - 4Dynamic: Text-to-4D Generation with Hybrid Priors [56.918589589853184]
本稿では,ビデオによる直接監督によって動的振幅と信頼性を保証し,テキストから4Dへ変換する新しい手法を提案する。
本手法は,テキスト・ツー・4D生成だけでなく,モノクロ映像からの4D生成も可能にしている。
論文 参考訳(メタデータ) (2024-07-17T16:02:55Z) - PLA4D: Pixel-Level Alignments for Text-to-4D Gaussian Splatting [9.517058280333806]
従来のテキストから4Dへの方法は、複数のスコア蒸留サンプリング(SDS)技術を活用している。
textbfPixel-textbfLevel textbfAlignment for text-driven textbf4D Gaussian splatting (PLA4D)
PLA4Dはアンカー参照、すなわちテキスト生成ビデオを提供し、画素空間内の異なるDMによって条件付けられたレンダリングプロセスを調整する。
論文 参考訳(メタデータ) (2024-05-30T11:23:01Z) - Align Your Gaussians: Text-to-4D with Dynamic 3D Gaussians and Composed
Diffusion Models [94.07744207257653]
我々は、探索されていないテキストから4D設定に焦点をあて、動的にアニメーションされた3Dオブジェクトを合成する。
4次元オブジェクト最適化において,テキスト・ツー・イメージ,テキスト・ツー・ビデオ,および3次元認識型多視点拡散モデルを組み合わせてフィードバックを提供する。
論文 参考訳(メタデータ) (2023-12-21T11:41:02Z) - 4D-fy: Text-to-4D Generation Using Hybrid Score Distillation Sampling [91.99172731031206]
現在のテキストから4Dの手法は、シーンの外観の質、立体構造、動きの3方向のトレードオフに直面している。
本稿では,複数の事前学習拡散モデルからの監視信号をブレンドする交互最適化手法であるハイブリッドスコア蒸留法を提案する。
論文 参考訳(メタデータ) (2023-11-29T18:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。