論文の概要: AeroDGS: Physically Consistent Dynamic Gaussian Splatting for Single-Sequence Aerial 4D Reconstruction
- arxiv url: http://arxiv.org/abs/2602.22376v1
- Date: Wed, 25 Feb 2026 20:20:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.393945
- Title: AeroDGS: Physically Consistent Dynamic Gaussian Splatting for Single-Sequence Aerial 4D Reconstruction
- Title(参考訳): AeroDGS:シングルシーケンス空中4D再構成のための物理的に一貫性のある動的ガウススプラッティング
- Authors: Hanyang Liu, Rongjun Qin,
- Abstract要約: 本稿では,単眼UAVビデオのための物理誘導型4DガウススプラッティングフレームワークであるAeroDGSを紹介する。
本研究では, 安定な静的および動的幾何を1つの空中シーケンスから再構成するモノクロ幾何リフティングモジュールを提案する。
さらに、様々な高度と運動条件にまたがる実際のUAVデータセットを構築し、動的空中再構成を評価する。
- 参考スコア(独自算出の注目度): 12.180817136544148
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in 4D scene reconstruction have significantly improved dynamic modeling across various domains. However, existing approaches remain limited under aerial conditions with single-view capture, wide spatial range, and dynamic objects of limited spatial footprint and large motion disparity. These challenges cause severe depth ambiguity and unstable motion estimation, making monocular aerial reconstruction inherently ill-posed. To this end, we present AeroDGS, a physics-guided 4D Gaussian splatting framework for monocular UAV videos. AeroDGS introduces a Monocular Geometry Lifting module that reconstructs reliable static and dynamic geometry from a single aerial sequence, providing a robust basis for dynamic estimation. To further resolve monocular ambiguity, we propose a Physics-Guided Optimization module that incorporates differentiable ground-support, upright-stability, and trajectory-smoothness priors, transforming ambiguous image cues into physically consistent motion. The framework jointly refines static backgrounds and dynamic entities with stable geometry and coherent temporal evolution. We additionally build a real-world UAV dataset that spans various altitudes and motion conditions to evaluate dynamic aerial reconstruction. Experiments on synthetic and real UAV scenes demonstrate that AeroDGS outperforms state-of-the-art methods, achieving superior reconstruction fidelity in dynamic aerial environments.
- Abstract(参考訳): 近年の4次元シーン再構成の進歩は、様々な領域にわたる動的モデリングを大幅に改善した。
しかし、既存のアプローチは、単一視野キャプチャー、広い空間範囲、空間的フットプリントの制限と大きな動きの相違による動的物体を含む空中条件下では限定的のままである。
これらの課題は、深い深さの曖昧さと不安定な動きの推定を引き起こすため、単眼の空中再構成は本質的に不適切である。
この目的のために、単眼UAVビデオのための物理誘導4DガウススプレイティングフレームワークであるAeroDGSを紹介した。
AeroDGSは、単一の空中シーケンスから信頼性の高い静的および動的幾何学を再構築し、動的推定の堅牢な基盤を提供するモノクロ幾何学リフティングモジュールを導入した。
さらに単分子的あいまいさを解消するために,不明瞭な画像キューを物理的に一貫した運動に変換する,微分可能な基底支持,直立安定性,軌道平滑さを組み込んだ物理誘導最適化モジュールを提案する。
このフレームワークは静的背景と動的実体を安定な幾何学とコヒーレントな時間進化で共同で洗練する。
さらに、様々な高度と運動条件にまたがる実際のUAVデータセットを構築し、動的空中再構成を評価する。
合成および実際のUAVシーンの実験では、AeroDGSは最先端の手法よりも優れており、ダイナミックな空気環境下での再現精度が優れていることが示されている。
関連論文リスト
- Gaussian Sequences with Multi-Scale Dynamics for 4D Reconstruction from Monocular Casual Videos [7.422432435797114]
実世界の力学は、物体から粒子レベルへの多スケールの規則性を示す。
複雑な運動場を分解するマルチスケールダイナミックス機構を設計する。
本手法により,モノクロカジュアルビデオからの高精度で一貫した4次元再構成が可能となった。
論文 参考訳(メタデータ) (2026-02-14T14:30:25Z) - MOSAIC-GS: Monocular Scene Reconstruction via Advanced Initialization for Complex Dynamic Environments [12.796165448365949]
MOSAIC-GSはモノクロビデオから高忠実度ダイナミックシーンを再構築するための、新しく、完全に明示的で、計算的に効率的なアプローチである。
我々は,深度,光学的流れ,動的物体セグメンテーション,点追跡など,複数の幾何学的手法を活用する。
我々は,MOSAIC-GSが既存の手法に比べて大幅に高速な最適化とレンダリングを実現することを実証した。
論文 参考訳(メタデータ) (2026-01-08T20:48:24Z) - 4D3R: Motion-Aware Neural Reconstruction and Rendering of Dynamic Scenes from Monocular Videos [52.89084603734664]
静的および動的コンポーネントを2段階のアプローチで分離する,ポーズフリーな動的ニューラルネットワークレンダリングフレームワークである4D3Rを提案する。
提案手法は最先端手法よりも最大1.8dBPSNRの改善を実現する。
論文 参考訳(メタデータ) (2025-11-07T13:25:50Z) - PAGE-4D: Disentangled Pose and Geometry Estimation for 4D Perception [39.819707648812944]
PAGE-4Dはフィードフォワードモデルで、後処理なしでVGGTを動的シーンに拡張する。
ダイナミックス対応マスクを予測することで、静的および動的情報をアンタングルする。
実験の結果、PAGE-4Dは動的シナリオにおいて元のVGGTよりも一貫して優れていた。
論文 参考訳(メタデータ) (2025-10-20T14:17:16Z) - DGS-LRM: Real-Time Deformable 3D Gaussian Reconstruction From Monocular Videos [52.46386528202226]
Deformable Gaussian Splats Large Reconstruction Model (DGS-LRM)を紹介する。
動的シーンのモノクロポーズビデオから変形可能な3Dガウススプラットを予測する最初のフィードフォワード法である。
最先端のモノクロビデオ3D追跡手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2025-06-11T17:59:58Z) - Event-boosted Deformable 3D Gaussians for Dynamic Scene Reconstruction [50.873820265165975]
本稿では,高時間分解能連続運動データと動的シーン再構成のための変形可能な3D-GSを併用したイベントカメラについて紹介する。
本稿では、3次元再構成としきい値モデリングの両方を大幅に改善する相互強化プロセスを作成するGS-Thresholdジョイントモデリング戦略を提案する。
提案手法は,合成および実世界の動的シーンを用いた最初のイベント包摂型4Dベンチマークであり,その上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T08:23:38Z) - SC4D: Sparse-Controlled Video-to-4D Generation and Motion Transfer [57.506654943449796]
動作と外観を分離するSC4Dという,効率的でスパース制御されたビデオ・ツー・4Dフレームワークを提案する。
我々の手法は、品質と効率の両面で既存の手法を超越している。
動作を多種多様な4Dエンティティにシームレスに転送する新しいアプリケーションを考案する。
論文 参考訳(メタデータ) (2024-04-04T18:05:18Z) - Periodic Vibration Gaussian: Dynamic Urban Scene Reconstruction and Real-time Rendering [49.36767999382054]
周期振動ガウスモデル(PVG)を提案する。
PVGは、当初静的シーン表現のために設計された効率的な3Dガウススプラッティング技術に基づいている。
PVGは、最良の代替品よりも900倍の速度でレンダリングできる。
論文 参考訳(メタデータ) (2023-11-30T13:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。