論文の概要: UFO-4D: Unposed Feedforward 4D Reconstruction from Two Images
- arxiv url: http://arxiv.org/abs/2602.24290v2
- Date: Thu, 05 Mar 2026 05:12:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 15:25:24.066424
- Title: UFO-4D: Unposed Feedforward 4D Reconstruction from Two Images
- Title(参考訳): UFO-4D:2枚の画像からフィードフォワード4Dを復元
- Authors: Junhwa Hur, Charles Herrmann, Songyou Peng, Philipp Henzler, Zeyu Ma, Todd Zickler, Deqing Sun,
- Abstract要約: UFO-4Dは、一対の未提示画像から高密度で明示的な4D表現を再構成するための統合フィードフォワードフレームワークである。
UFO-4Dはダイナミックな3Dガウシアンを直接推定し、3D幾何学、3Dモーション、カメラのポーズのジョイントで一貫した推定を可能にする。
我々の表現はまた、新しいビューや時間にわたって高忠実な4D合成を可能にする。
- 参考スコア(独自算出の注目度): 43.53497980792498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dense 4D reconstruction from unposed images remains a critical challenge, with current methods relying on slow test-time optimization or fragmented, task-specific feedforward models. We introduce UFO-4D, a unified feedforward framework to reconstruct a dense, explicit 4D representation from just a pair of unposed images. UFO-4D directly estimates dynamic 3D Gaussian Splats, enabling the joint and consistent estimation of 3D geometry, 3D motion, and camera pose in a feedforward manner. Our core insight is that differentiably rendering multiple signals from a single Dynamic 3D Gaussian representation offers major training advantages. This approach enables a self-supervised image synthesis loss while tightly coupling appearance, depth, and motion. Since all modalities share the same geometric primitives, supervising one inherently regularizes and improves the others. This synergy overcomes data scarcity, allowing UFO-4D to outperform prior work by up to 3 times in joint geometry, motion, and camera pose estimation. Our representation also enables high-fidelity 4D interpolation across novel views and time. Please visit our project page for visual results: https://ufo-4d.github.io/
- Abstract(参考訳): 未提示画像からのDense 4D再構成は依然として重要な課題であり、現在の手法は遅いテスト時間最適化やタスク固有のフィードフォワードモデルに依存している。
UFO-4Dは、一対の未提示画像から高密度で明示的な4D表現を再構成するための統合フィードフォワードフレームワークである。
UFO-4Dはダイナミックな3Dガウススプレートを直接推定し、3D幾何学、3Dモーション、カメラのポーズをフィードフォワード方式で共同で一貫した推定を可能にする。
私たちの中核的な洞察は、単一のDynamic 3D Gaussian表現から複数の信号を微分的にレンダリングすることは、大きなトレーニング上の利点をもたらすということです。
このアプローチは、外観、深さ、動きを密結合しながら、自己教師付き画像合成損失を可能にする。
すべてのモジュラリティは同じ幾何学的プリミティブを共有しているため、1つを監督することは本質的に規則化し、他のプリミティブを改善する。
このシナジーはデータの不足を克服し、UFO-4Dは関節形状、動き、カメラのポーズ推定において最大3倍の速さで先行作業に勝る。
我々の表現はまた、新しいビューや時間にまたがる高忠実な4D補間を可能にする。
ビジュアルな結果については、プロジェクトページを参照してください。
関連論文リスト
- Joint 3D Geometry Reconstruction and Motion Generation for 4D Synthesis from a Single Image [88.71287865590273]
そこでTrajScene-60Kについて紹介する。
拡散型4次元シーン軌道生成装置(4D-STraG)を提案する。
次に、4Dポイントトラック表現から任意のカメラトラジェクトリでビデオをレンダリングする4Dビュー合成モジュール(4D-Vi)を提案する。
論文 参考訳(メタデータ) (2025-12-04T17:59:10Z) - Diff4Splat: Controllable 4D Scene Generation with Latent Dynamic Reconstruction Models [79.06910348413861]
Diff4Splatは、単一の画像から制御可能で明示的な4Dシーンを合成するフィードフォワード方式である。
単一の入力画像、カメラ軌跡、オプションのテキストプロンプトが与えられた場合、Diff4Splatは外見、幾何学、動きを符号化する変形可能な3Dガウス場を直接予測する。
論文 参考訳(メタデータ) (2025-11-01T11:16:25Z) - C4D: 4D Made from 3D through Dual Correspondences [77.04731692213663]
時間的対応を利用して既存の3次元再構成を4Dに拡張するフレームワークであるC4Dを紹介する。
C4Dは、短期光学フローと長期点追跡の2種類の対応をキャプチャする。
我々は、追加の移動情報を提供する動的認識ポイントトラッカーを訓練する。
論文 参考訳(メタデータ) (2025-10-16T17:59:06Z) - Deblur4DGS: 4D Gaussian Splatting from Blurry Monocular Video [55.704264233274294]
ぼやけたモノクロ映像から高品質な4Dモデルを再構成するためのDeblur4DGSを提案する。
我々は露光時間内の連続的動的表現を露光時間推定に変換する。
Deblur4DGSは、新規なビュー合成以外にも、複数の視点からぼやけたビデオを改善するために応用できる。
論文 参考訳(メタデータ) (2024-12-09T12:02:11Z) - Efficient4D: Fast Dynamic 3D Object Generation from a Single-view Video [42.10482273572879]
本稿では,効率的な4Dオブジェクト生成フレームワークであるEfficient4Dを提案する。
異なるカメラビューの下で高品質な時空一貫性の画像を生成し、ラベル付きデータとして使用する。
合成ビデオと実ビデオの両方の実験によると、Efficient4Dのスピードは10倍に向上している。
論文 参考訳(メタデータ) (2024-01-16T18:58:36Z) - Align Your Gaussians: Text-to-4D with Dynamic 3D Gaussians and Composed
Diffusion Models [94.07744207257653]
我々は、探索されていないテキストから4D設定に焦点をあて、動的にアニメーションされた3Dオブジェクトを合成する。
4次元オブジェクト最適化において,テキスト・ツー・イメージ,テキスト・ツー・ビデオ,および3次元認識型多視点拡散モデルを組み合わせてフィードバックを提供する。
論文 参考訳(メタデータ) (2023-12-21T11:41:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。