論文の概要: ChronosObserver: Taming 4D World with Hyperspace Diffusion Sampling
- arxiv url: http://arxiv.org/abs/2512.01481v1
- Date: Mon, 01 Dec 2025 10:00:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.793383
- Title: ChronosObserver: Taming 4D World with Hyperspace Diffusion Sampling
- Title(参考訳): ChronosObserver:ハイパースペース拡散サンプリングによる4Dワールドのモデリング
- Authors: Qisen Wang, Yifan Zhao, Peisen Shen, Jialu Li, Jia Li,
- Abstract要約: 本研究では,4次元世界シーンの時間的制約を表現するために,World State Hyperspaceを含むトレーニング不要な手法を提案する。
本研究では,拡散モデルの訓練や微調整を行うことなく,高忠実度かつ3次元連続時間同期ビデオを実現する方法を示す。
- 参考スコア(独自算出の注目度): 15.409157645520219
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although prevailing camera-controlled video generation models can produce cinematic results, lifting them directly to the generation of 3D-consistent and high-fidelity time-synchronized multi-view videos remains challenging, which is a pivotal capability for taming 4D worlds. Some works resort to data augmentation or test-time optimization, but these strategies are constrained by limited model generalization and scalability issues. To this end, we propose ChronosObserver, a training-free method including World State Hyperspace to represent the spatiotemporal constraints of a 4D world scene, and Hyperspace Guided Sampling to synchronize the diffusion sampling trajectories of multiple views using the hyperspace. Experimental results demonstrate that our method achieves high-fidelity and 3D-consistent time-synchronized multi-view videos generation without training or fine-tuning for diffusion models.
- Abstract(参考訳): 一般的なカメラ制御ビデオ生成モデルは、撮影結果を生成することができるが、それらを3D一貫性と高忠実な時間同期マルチビュービデオに直接持ち上げることは、依然として困難であり、これは4D世界に取り組む上で重要な能力である。
データ拡張やテストタイムの最適化を前提とした研究もあるが、これらの戦略は限定的なモデル一般化とスケーラビリティの問題によって制約されている。
この目的のために,4次元ワールドシーンの時空間制約を表すWorld State Hyperspaceを含むトレーニング不要のChronosObserverと,ハイパースペースを用いて複数のビューの拡散サンプリング軌跡を同期させるHyperspace Guided Samplingを提案する。
実験結果から,拡散モデルの訓練や微調整を伴わずに高忠実度かつ3次元連続時間同期多視点映像を生成できることが確認された。
関連論文リスト
- Zero4D: Training-Free 4D Video Generation From Single Video Using Off-the-Shelf Video Diffusion [52.0192865857058]
そこで,本研究では,市販ビデオ拡散モデルを利用して,単一入力ビデオから多視点ビデオを生成する4Dビデオ生成手法を提案する。
本手法はトレーニング不要で,市販のビデオ拡散モデルを完全に活用し,マルチビュービデオ生成のための実用的で効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2025-03-28T17:14:48Z) - 4Diffusion: Multi-view Video Diffusion Model for 4D Generation [55.82208863521353]
現在の4D生成法は, 高度な拡散生成モデルの助けを借りて, 有意義な有効性を実現している。
モノクロビデオから空間的・時間的に一貫した4Dコンテンツを生成することを目的とした,新しい4D生成パイプライン,すなわち4Diffusionを提案する。
論文 参考訳(メタデータ) (2024-05-31T08:18:39Z) - Diffusion4D: Fast Spatial-temporal Consistent 4D Generation via Video Diffusion Models [116.31344506738816]
高速でスケーラブルな4Dコンテンツ生成のための新しいフレームワーク textbfDiffusion4D を提案する。
ダイナミックな3Dアセットの軌道ビューを合成できる4D対応ビデオ拡散モデルを開発した。
提案手法は, 生成効率と4次元幾何整合性の観点から, 従来の最先端技術を超えている。
論文 参考訳(メタデータ) (2024-05-26T17:47:34Z) - STAG4D: Spatial-Temporal Anchored Generative 4D Gaussians [36.83603109001298]
STAG4Dは、事前訓練された拡散モデルと動的3次元ガウススプラッティングを組み合わせた、高忠実度4D生成のための新しいフレームワークである。
提案手法は, レンダリング品質, 時空間整合性, 生成ロバスト性において, 先行4次元生成よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-22T04:16:33Z) - Consistent4D: Consistent 360{\deg} Dynamic Object Generation from
Monocular Video [15.621374353364468]
Consistent4Dは、モノクロビデオから4D動的オブジェクトを生成するための新しいアプローチである。
我々は、360度ダイナミックオブジェクト再構成を4次元生成問題として、退屈なマルチビューデータ収集とカメラキャリブレーションの必要性を排除した。
論文 参考訳(メタデータ) (2023-11-06T03:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。