論文の概要: 4D Primitive-Mâché: Glueing Primitives for Persistent 4D Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2512.16564v1
- Date: Thu, 18 Dec 2025 14:06:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.089797
- Title: 4D Primitive-Mâché: Glueing Primitives for Persistent 4D Scene Reconstruction
- Title(参考訳): 4D Primitive-Mâché: Persistent 4D Scene Reconstruction の原初例の検討
- Authors: Kirill Mazur, Marwan Taher, Andrew J. Davison,
- Abstract要約: 本稿では,カジュアルなモノクラーRGB映像を入力として受信し,シーンの持続的な再構成を出力する動的再構成システムを提案する。
言い換えれば、シーンの現在見える部分だけでなく、以前に見た部分もすべて再構成し、すべてのタイムステップで完全な再構築を再現できる。
- 参考スコア(独自算出の注目度): 28.50411933478524
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We present a dynamic reconstruction system that receives a casual monocular RGB video as input, and outputs a complete and persistent reconstruction of the scene. In other words, we reconstruct not only the the currently visible parts of the scene, but also all previously viewed parts, which enables replaying the complete reconstruction across all timesteps. Our method decomposes the scene into a set of rigid 3D primitives, which are assumed to be moving throughout the scene. Using estimated dense 2D correspondences, we jointly infer the rigid motion of these primitives through an optimisation pipeline, yielding a 4D reconstruction of the scene, i.e. providing 3D geometry dynamically moving through time. To achieve this, we also introduce a mechanism to extrapolate motion for objects that become invisible, employing motion-grouping techniques to maintain continuity. The resulting system enables 4D spatio-temporal awareness, offering capabilities such as replayable 3D reconstructions of articulated objects through time, multi-object scanning, and object permanence. On object scanning and multi-object datasets, our system significantly outperforms existing methods both quantitatively and qualitatively.
- Abstract(参考訳): 本稿では,カジュアルなモノクラーRGB映像を入力として受信し,シーンの完全かつ永続的な再構成を出力する動的再構成システムを提案する。
言い換えれば、シーンの現在見える部分だけでなく、以前に見た部分もすべて再構成し、すべてのタイムステップで完全な再構築を再現できる。
本手法は,シーン全体を移動していると推定される剛体3Dプリミティブの集合に分解する。
推定された密度の2次元対応を用いて、最適化パイプラインを通してこれらのプリミティブの剛性運動を共同で推定し、シーンの4次元再構成、すなわち時間を通して動的に動く3次元幾何学を与える。
これを実現するために, 連続性を維持するために移動群法を用いて, 目に見えない物体の運動を外挿する機構も導入した。
このシステムにより、4次元時空間認識が可能となり、時間による音声オブジェクトの再生可能な3次元再構成、マルチオブジェクトスキャン、オブジェクト永続性などの機能を提供する。
オブジェクトスキャンとマルチオブジェクトデータセットでは,既存の手法よりも定量的,定性的に優れている。
関連論文リスト
- Inferring Compositional 4D Scenes without Ever Seeing One [58.81854043690171]
本研究では、4D/3Dオブジェクトの構造と時間的構成を一貫して予測する手法を提案する。
本研究では,2次元ビデオ入力における空間的,時間的注意を慎重に設計したトレーニングによってこれを実現した。
空間的推論と時間的推論を交互に行うことで、COM4Dは完成したシーンと構成されたシーンを再構築する。
論文 参考訳(メタデータ) (2025-12-04T21:51:47Z) - C4D: 4D Made from 3D through Dual Correspondences [77.04731692213663]
時間的対応を利用して既存の3次元再構成を4Dに拡張するフレームワークであるC4Dを紹介する。
C4Dは、短期光学フローと長期点追跡の2種類の対応をキャプチャする。
我々は、追加の移動情報を提供する動的認識ポイントトラッカーを訓練する。
論文 参考訳(メタデータ) (2025-10-16T17:59:06Z) - D$^2$USt3R: Enhancing 3D Reconstruction for Dynamic Scenes [54.886845755635754]
本研究は動的シーンにおける3次元再構成の課題に対処し,物体の動きが従来の3次元ポイントマップ回帰法の品質を劣化させる。
空間的側面と時間的側面の両方を明示的に組み込むことにより,提案した点マップに対する3次元密度対応のカプセル化に成功した。
論文 参考訳(メタデータ) (2025-04-08T17:59:50Z) - WideRange4D: Enabling High-Quality 4D Reconstruction with Wide-Range Movements and Scenes [65.76371201992654]
そこで本研究では,新しい4D再構成ベンチマークであるWideRange4Dを提案する。
このベンチマークには、空間変動が大きいリッチな4Dシーンデータが含まれており、より包括的な4D生成手法の生成能力を評価できる。
また,様々な複雑な4Dシーン再構成タスクに対して,安定かつ高品質な4D結果を生成する新しい4D再構成手法であるProgress4Dを導入する。
論文 参考訳(メタデータ) (2025-03-17T17:58:18Z) - 4D Gaussian Splatting: Modeling Dynamic Scenes with Native 4D Primitives [115.67081491747943]
動的3Dシーン表現と新しいビュー合成はAR/VRおよびメタバースアプリケーションの実現に不可欠である。
我々は,その基礎となる4次元体積を近似として,時間変化の異なる3次元シーンの再構成を再構成する。
ストレージのボトルネックに対処するため、メモリフットプリントを効果的に削減するいくつかのコンパクトなバリエーションを導出する。
論文 参考訳(メタデータ) (2024-12-30T05:30:26Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - Shape of Motion: 4D Reconstruction from a Single Video [42.42669078777769]
本稿では,世界座標フレーム内の3次元運動軌跡を明示的かつ永続的に特徴付ける,ジェネリックダイナミックシーンの再構築手法を提案する。
まず,コンパクトなSE(3)モーションベースでシーンの動きを表現することで,3次元動作の低次元構造を利用する。
第2に,単眼深度マップや長距離2Dトラックなどの既成データ駆動の先行データを利用して,これらのノイズを効果的に処理する方法を考案する。
論文 参考訳(メタデータ) (2024-07-18T17:59:08Z) - Real-time Photorealistic Dynamic Scene Representation and Rendering with
4D Gaussian Splatting [8.078460597825142]
2次元画像から動的3Dシーンを再構成し、時間とともに多様なビューを生成することは、シーンの複雑さと時間的ダイナミクスのために困難である。
本研究では、4次元プリミティブの集合を明示的な幾何学と外観モデルを用いて最適化することにより、動的シーンの基本的な時間的レンダリング量を近似することを提案する。
我々のモデルは概念的に単純であり、異方性楕円によってパラメータ化され、空間と時間で任意に回転する4次元ガウスのパラメータと、4次元球面調和係数で表されるビュー依存および時間進化の外観から構成される。
論文 参考訳(メタデータ) (2023-10-16T17:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。