論文の概要: 4-Doodle: Text to 3D Sketches that Move!
- arxiv url: http://arxiv.org/abs/2510.25319v1
- Date: Wed, 29 Oct 2025 09:33:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.377514
- Title: 4-Doodle: Text to 3D Sketches that Move!
- Title(参考訳): 4-Doodle: 動く3Dスケッチへのテキスト。
- Authors: Hao Chen, Jiaqi Wang, Yonggang Qi, Ke Li, Kaiyue Pang, Yi-Zhe Song,
- Abstract要約: 4-Doodleは、テキストから動的3Dスケッチを生成するための、最初のトレーニング不要のフレームワークである。
提案手法は時間的にリアルかつ構造的に安定な3次元スケッチアニメーションを生成し,忠実度と可制御性の両方において既存のベースラインを上回っている。
- 参考スコア(独自算出の注目度): 60.89021458068987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel task: text-to-3D sketch animation, which aims to bring freeform sketches to life in dynamic 3D space. Unlike prior works focused on photorealistic content generation, we target sparse, stylized, and view-consistent 3D vector sketches, a lightweight and interpretable medium well-suited for visual communication and prototyping. However, this task is very challenging: (i) no paired dataset exists for text and 3D (or 4D) sketches; (ii) sketches require structural abstraction that is difficult to model with conventional 3D representations like NeRFs or point clouds; and (iii) animating such sketches demands temporal coherence and multi-view consistency, which current pipelines do not address. Therefore, we propose 4-Doodle, the first training-free framework for generating dynamic 3D sketches from text. It leverages pretrained image and video diffusion models through a dual-space distillation scheme: one space captures multi-view-consistent geometry using differentiable B\'ezier curves, while the other encodes motion dynamics via temporally-aware priors. Unlike prior work (e.g., DreamFusion), which optimizes from a single view per step, our multi-view optimization ensures structural alignment and avoids view ambiguity, critical for sparse sketches. Furthermore, we introduce a structure-aware motion module that separates shape-preserving trajectories from deformation-aware changes, enabling expressive motion such as flipping, rotation, and articulated movement. Extensive experiments show that our method produces temporally realistic and structurally stable 3D sketch animations, outperforming existing baselines in both fidelity and controllability. We hope this work serves as a step toward more intuitive and accessible 4D content creation.
- Abstract(参考訳): テキストから3Dのスケッチアニメーションという,ダイナミックな3次元空間におけるフリーフォームスケッチを生かした新しいタスクを提案する。
フォトリアリスティックなコンテンツ生成に焦点を当てた以前の作品とは異なり、視覚コミュニケーションやプロトタイピングに適した軽量で解釈可能な3Dベクタースケッチをターゲットとしている。
しかし、このタスクは非常に難しい。
(i)テキストと3D(または4D)スケッチのためのペアデータセットは存在しない。
(II)スケッチは、NeRFや点雲のような従来の3D表現ではモデル化が難しい構造的抽象化を必要とする。
3) このようなスケッチをアニメーションするには、時間的コヒーレンスと、現在のパイプラインが対応しないマルチビューの一貫性が必要です。
そこで本研究では,テキストから動的3Dスケッチを生成するためのトレーニングフリーフレームワークである4-Doodleを提案する。
1つの空間は微分可能なB\'ezier曲線を用いて多視点の幾何をキャプチャし、もう1つは時間的に認識される事前の運動力学を符号化する。
ステップ毎にひとつのビューから最適化する以前の作業(例:DreamFusion)とは異なり、マルチビューの最適化によって構造的なアライメントが保証され、スパーススケッチに不可欠なビューの曖昧さが回避されます。
さらに, 形状保存軌道と変形認識変化を分離し, 転動, 回転, 調音運動などの表現運動を可能にする構造認識運動モジュールを提案する。
大規模な実験により,本手法は時間的に現実的で構造的に安定な3次元スケッチアニメーションを生成し,忠実さと可制御性の両方において既存のベースラインよりも優れていた。
この作業が、より直感的でアクセシブルな4Dコンテンツ制作への一歩になることを願っている。
関連論文リスト
- Drag4D: Align Your Motion with Text-Driven 3D Scene Generation [77.79131321983677]
Drag4Dはインタラクティブなフレームワークで、テキスト駆動の3Dシーン生成にオブジェクトの動き制御を統合する。
このフレームワークにより、ユーザーは単一の画像から生成された3Dオブジェクトに対して3Dトラジェクトリを定義し、それらを高品質な3D背景にシームレスに統合することができる。
論文 参考訳(メタデータ) (2025-09-26T05:23:45Z) - Occlusion-robust Stylization for Drawing-based 3D Animation [20.793887576117527]
描画に基づく3DアニメーションのためのOcclusion-robust Stylization Framework(OSF)を提案する。
OSFは以前の2段階ではなく1回の実行で動作し、2.4倍高速な推論と2.1倍少ないメモリを実現している。
論文 参考訳(メタデータ) (2025-08-01T07:52:07Z) - Diff3DS: Generating View-Consistent 3D Sketch via Differentiable Curve Rendering [17.918603435615335]
3Dスケッチは、オブジェクトやシーンの3D形状と構造を視覚的に表現するために広く使用されている。
Diff3DSは、ビュー一貫性のある3Dスケッチを生成するための、新しい差別化可能なフレームワークである。
我々のフレームワークは3Dスケッチと画像のドメインをブリッジし、3Dスケッチのエンドツーエンド最適化を実現する。
論文 参考訳(メタデータ) (2024-05-24T07:48:14Z) - Sketch3D: Style-Consistent Guidance for Sketch-to-3D Generation [55.73399465968594]
本稿では,テキスト記述と一致する色と入力スケッチに整合した形状のリアルな3Dアセットを生成するための,新しい生成パラダイムSketch3Dを提案する。
3つの戦略は、3次元ガウスの最適化、すなわち分布伝達機構による構造最適化、直感的なMSE損失による色最適化、CLIPに基づく幾何学的類似性損失によるスケッチ類似性最適化である。
論文 参考訳(メタデータ) (2024-04-02T11:03:24Z) - 3Doodle: Compact Abstraction of Objects with 3D Strokes [30.87733869892925]
我々は3Doooleを提案し、記述的かつビュー一貫性のあるスケッチ画像を生成する。
提案手法は,3次元ストロークの集合が効率的に3次元構造情報を表現できるという考えに基づいている。
結果として得られる3Dストロークのスパースセットは、様々な物体の本質的な3D特性形状を含む抽象スケッチとして表現することができる。
論文 参考訳(メタデータ) (2024-02-06T04:25:07Z) - 3D VR Sketch Guided 3D Shape Prototyping and Exploration [108.6809158245037]
本稿では,3次元VRスケッチを条件として行う3次元形状生成ネットワークを提案する。
スケッチは初心者がアートトレーニングなしで作成していると仮定する。
本手法は,オリジナルスケッチの構造に整合した複数の3次元形状を生成する。
論文 参考訳(メタデータ) (2023-06-19T10:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。