論文の概要: Orientation-anchored Hyper-Gaussian for 4D Reconstruction from Casual Videos
- arxiv url: http://arxiv.org/abs/2509.23492v1
- Date: Sat, 27 Sep 2025 20:43:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.259719
- Title: Orientation-anchored Hyper-Gaussian for 4D Reconstruction from Casual Videos
- Title(参考訳): カジュアルビデオからの4次元再構成のための配向アンコールハイパーガウシアン
- Authors: Junyi Wu, Jiachen Tao, Haoxuan Wang, Gaowen Liu, Ramana Rao Kompella, Yan Yan,
- Abstract要約: OriGSは、カジュアルにキャプチャされたモノクロビデオから高品質な4D再構成を行うための新しいフレームワークだ。
まず、空間と時間にまたがる主要な前方方向を伝播するグローバルオリエンテーション場を推定する。
これに基づいて、時間、空間、幾何学、配向をコヒーレントな確率的状態に埋め込む統一的な定式化である、配向を意識したハイパーガウス的(Hyper-Gaussian)を提案する。
- 参考スコア(独自算出の注目度): 26.642143303176997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Orientation-anchored Gaussian Splatting (OriGS), a novel framework for high-quality 4D reconstruction from casually captured monocular videos. While recent advances extend 3D Gaussian Splatting to dynamic scenes via various motion anchors, such as graph nodes or spline control points, they often rely on low-rank assumptions and fall short in modeling complex, region-specific deformations inherent to unconstrained dynamics. OriGS addresses this by introducing a hyperdimensional representation grounded in scene orientation. We first estimate a Global Orientation Field that propagates principal forward directions across space and time, serving as stable structural guidance for dynamic modeling. Built upon this, we propose Orientation-aware Hyper-Gaussian, a unified formulation that embeds time, space, geometry, and orientation into a coherent probabilistic state. This enables inferring region-specific deformation through principled conditioned slicing, adaptively capturing diverse local dynamics in alignment with global motion intent. Experiments demonstrate the superior reconstruction fidelity of OriGS over mainstream methods in challenging real-world dynamic scenes.
- Abstract(参考訳): 我々は,カジュアルな単眼ビデオから高品質な4D再構成を行う新しいフレームワークであるOriGS(Orientation-anchored Gaussian Splatting)を提案する。
近年の進歩は、グラフノードやスプライン制御ポイントなどの様々なモーションアンカーを介して3Dガウス・スプレイティングをダイナミックなシーンに拡張するが、それらはしばしば低ランクな仮定に頼り、複雑なモデリングにおいて不足する。
OriGSはシーンオリエンテーションを基礎とした超次元表現を導入することでこの問題に対処している。
まず、空間と時間にわたって主方向を伝播させ、動的モデリングのための安定した構造的ガイダンスとして機能するグローバル指向場を推定する。
これに基づいて、時間、空間、幾何学、配向をコヒーレントな確率的状態に埋め込む統一的な定式化である、配向を意識したハイパーガウス的(Hyper-Gaussian)を提案する。
これにより、原理化された条件付きスライシングを通じて領域特異的な変形を推測することができ、グローバルな動きのインテンションに合わせて様々な局所力学を適応的に捉えることができる。
実験では、現実世界のダイナミックシーンに挑戦する際の主流手法よりもOriGSの再現性が優れていることを示した。
関連論文リスト
- DriveSplat: Decoupled Driving Scene Reconstruction with Geometry-enhanced Partitioned Neural Gaussians [16.363638581354305]
運転シナリオの領域では、高速走行車、歩行者の移動、大規模静的背景の存在が、3Dシーンの再構築に重大な課題となっている。
3次元ガウス散乱に基づく最近の手法は、シーン内の動的成分と静的成分を分離することで、動きのぼかし問題に対処する。
本稿では,動的静的デカップリングを用いたニューラルガウス表現に基づくシナリオ駆動のための高品質な再構成手法であるDriveSplatを紹介する。
論文 参考訳(メタデータ) (2025-08-21T09:14:50Z) - FreeTimeGS: Free Gaussian Primitives at Anytime and Anywhere for Dynamic Scene Reconstruction [64.30050475414947]
FreeTimeGSはガウスのプリミティブを任意の時間と位置で表示できる新しい4D表現である。
我々の表現は強い柔軟性を持ち、ダイナミックな3Dシーンをモデル化する能力を向上させる。
いくつかのデータセットに対する実験結果から,本手法のレンダリング品質は,最近の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2025-06-05T17:59:57Z) - UrbanGS: Semantic-Guided Gaussian Splatting for Urban Scene Reconstruction [86.4386398262018]
UrbanGSは2Dセマンティックマップと既存の動的ガウスアプローチを使って静的オブジェクトとシーンを区別する。
動的オブジェクトに対して、学習可能な時間埋め込みを用いて時間情報を集約する。
提案手法は, 修復の質と効率性において, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-12-04T16:59:49Z) - Event-boosted Deformable 3D Gaussians for Dynamic Scene Reconstruction [50.873820265165975]
本稿では,高時間分解能連続運動データと動的シーン再構成のための変形可能な3D-GSを併用したイベントカメラについて紹介する。
本稿では、3次元再構成としきい値モデリングの両方を大幅に改善する相互強化プロセスを作成するGS-Thresholdジョイントモデリング戦略を提案する。
提案手法は,合成および実世界の動的シーンを用いた最初のイベント包摂型4Dベンチマークであり,その上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T08:23:38Z) - DeSiRe-GS: 4D Street Gaussians for Static-Dynamic Decomposition and Surface Reconstruction for Urban Driving Scenes [71.61083731844282]
本稿では,自己教師型ガウススプラッティング表現であるDeSiRe-GSについて述べる。
複雑な駆動シナリオにおいて、効率的な静的・動的分解と高忠実な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-11-18T05:49:16Z) - Adaptive and Temporally Consistent Gaussian Surfels for Multi-view Dynamic Reconstruction [3.9363268745580426]
AT-GSは、フレーム単位のインクリメンタル最適化により、多視点ビデオから高品質な動的曲面を再構成する新しい手法である。
連続するフレーム間の曲率写像の整合性を確保することにより、動的表面における時間的ジッタリングを低減する。
本手法は動的表面再構成の精度と時間的コヒーレンスを向上し,高忠実度空間時間新奇なビュー合成を実現する。
論文 参考訳(メタデータ) (2024-11-10T21:30:16Z) - Gaussian Splatting Lucas-Kanade [0.11249583407496218]
本稿では,古典ルーカスカナーデ法を動的ガウススプラッティングに適応させる新しい解析手法を提案する。
前方ワープフィールドネットワークの固有特性を活用することにより,時間積分により正確なシーンフロー計算を容易にする解析速度場を導出する。
提案手法は,合成シーンと実世界のシーンの両方で実証されたような,最小限のカメラモーションで高ダイナミックなシーンを再構築する上で優れている。
論文 参考訳(メタデータ) (2024-07-16T01:50:43Z) - Vidu4D: Single Generated Video to High-Fidelity 4D Reconstruction with Dynamic Gaussian Surfels [35.27805034331218]
単一生成ビデオから4D表現を正確に再構成する新しい再構成モデルVidu4Dを提案する。
Vidu4Dのコアとなるのは、提案した動的ガウスサーフェス(DGS)技術である。
論文 参考訳(メタデータ) (2024-05-27T04:43:44Z) - SC-GS: Sparse-Controlled Gaussian Splatting for Editable Dynamic Scenes [59.23385953161328]
動的シーンのための新しいビュー合成は、コンピュータビジョンとグラフィックスにおいて依然として難しい問題である。
本稿では,動的シーンの動作と外観を疎制御点と高密度ガウスに明示的に分解する新しい表現を提案する。
提案手法は,高忠実度な外観を維持しつつ,ユーザ制御のモーション編集を可能にする。
論文 参考訳(メタデータ) (2023-12-04T11:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。