論文の概要: 3D4D: An Interactive, Editable, 4D World Model via 3D Video Generation
- arxiv url: http://arxiv.org/abs/2511.08536v1
- Date: Wed, 12 Nov 2025 02:03:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.855837
- Title: 3D4D: An Interactive, Editable, 4D World Model via 3D Video Generation
- Title(参考訳): 3D4D:インタラクティブで編集可能な4Dワールドモデル
- Authors: Yunhong He, Zhengqing Yuan, Zhengzhong Tu, Yanfang Ye, Lichao Sun,
- Abstract要約: 3D4Dは、WebGLとSupersplatレンダリングを統合するインタラクティブな4D視覚化フレームワークである。
静的画像とテキストを4つのコアモジュールを通じてコヒーレントな4Dシーンに変換し、高速でリアルタイムなマルチモーダルインタラクションを実現する。
- 参考スコア(独自算出の注目度): 35.12118315309581
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce 3D4D, an interactive 4D visualization framework that integrates WebGL with Supersplat rendering. It transforms static images and text into coherent 4D scenes through four core modules and employs a foveated rendering strategy for efficient, real-time multi-modal interaction. This framework enables adaptive, user-driven exploration of complex 4D environments. The project page and code are available at https://yunhonghe1021.github.io/NOVA/.
- Abstract(参考訳): 本稿では,WebGLとSupersplatレンダリングを統合したインタラクティブな4D可視化フレームワークである3D4Dを紹介する。
静的画像とテキストを4つのコアモジュールを通じてコヒーレントな4Dシーンに変換し、高速でリアルタイムなマルチモーダルインタラクションを実現する。
このフレームワークは、複雑な4D環境の適応的でユーザ主導の探索を可能にする。
プロジェクトページとコードはhttps://yunhonghe1021.github.io/NOVA/で公開されている。
関連論文リスト
- CAT4D: Create Anything in 4D with Multi-View Video Diffusion Models [98.03734318657848]
本研究では,モノクロ映像から4次元(ダイナミックな3D)シーンを生成するCAT4Dを提案する。
我々は、多様なデータセットの組み合わせに基づいて訓練された多視点ビデオ拡散モデルを活用して、新しいビュー合成を実現する。
新規なビュー合成と動的シーン再構成ベンチマークにおける競合性能を実証する。
論文 参考訳(メタデータ) (2024-11-27T18:57:16Z) - 4-LEGS: 4D Language Embedded Gaussian Splatting [12.699978393733309]
3次元ガウシアンティングに基づく4次元表現に時間的特徴を持ち上げる方法を示す。
これにより、ユーザはテキストプロンプトからビデオ内のイベントを時間的にローカライズすることができる。
我々は,人や動物が様々な行動を行う様子を公開3Dビデオデータセットで実演する。
論文 参考訳(メタデータ) (2024-10-14T17:00:53Z) - Comp4D: LLM-Guided Compositional 4D Scene Generation [65.5810466788355]
合成 4D 生成のための新しいフレームワーク Comp4D について述べる。
シーン全体の特異な4D表現を生成する従来の方法とは異なり、Comp4Dはシーン内の各4Dオブジェクトを革新的に別々に構築する。
提案手法は, 予め定義された軌道で導かれる合成スコア蒸留技術を用いている。
論文 参考訳(メタデータ) (2024-03-25T17:55:52Z) - 4DGen: Grounded 4D Content Generation with Spatial-temporal Consistency [118.15258850780417]
textbf4DGenは、4Dコンテンツ作成のための新しいフレームワークである。
我々のパイプラインは、制御可能な4D生成を容易にし、ユーザがモノクロビデオで動きを指定したり、画像から映像への世代を適用できる。
既存のビデオから4Dのベースラインと比較すると,入力信号の忠実な再構成には優れた結果が得られる。
論文 参考訳(メタデータ) (2023-12-28T18:53:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。