論文の概要: AdaGaR: Adaptive Gabor Representation for Dynamic Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2601.00796v1
- Date: Fri, 02 Jan 2026 18:59:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.62976
- Title: AdaGaR: Adaptive Gabor Representation for Dynamic Scene Reconstruction
- Title(参考訳): AdaGaR:動的シーン再構成のための適応型ガバー表現
- Authors: Jiewen Chan, Zhenjun Zhao, Yu-Lun Liu,
- Abstract要約: 動的シーンモデリングにおける周波数適応性と時間連続性の両方に対処する統合フレームワークを提案する。
Tap-Vid DAVISの実験は最先端の性能を示している。
- 参考スコア(独自算出の注目度): 9.63361043358898
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reconstructing dynamic 3D scenes from monocular videos requires simultaneously capturing high-frequency appearance details and temporally continuous motion. Existing methods using single Gaussian primitives are limited by their low-pass filtering nature, while standard Gabor functions introduce energy instability. Moreover, lack of temporal continuity constraints often leads to motion artifacts during interpolation. We propose AdaGaR, a unified framework addressing both frequency adaptivity and temporal continuity in explicit dynamic scene modeling. We introduce Adaptive Gabor Representation, extending Gaussians through learnable frequency weights and adaptive energy compensation to balance detail capture and stability. For temporal continuity, we employ Cubic Hermite Splines with Temporal Curvature Regularization to ensure smooth motion evolution. An Adaptive Initialization mechanism combining depth estimation, point tracking, and foreground masks establishes stable point cloud distributions in early training. Experiments on Tap-Vid DAVIS demonstrate state-of-the-art performance (PSNR 35.49, SSIM 0.9433, LPIPS 0.0723) and strong generalization across frame interpolation, depth consistency, video editing, and stereo view synthesis. Project page: https://jiewenchan.github.io/AdaGaR/
- Abstract(参考訳): モノクロビデオからダイナミックな3Dシーンを再構築するには、高周波の外観の詳細と時間的に連続した動きを同時に撮影する必要がある。
単一ガウス原始体を用いた既存の手法は、その低パスフィルタの性質によって制限されるが、標準ガボル関数はエネルギー不安定性を導入する。
さらに、時間的連続性制約の欠如は、補間中の運動アーティファクトにつながることが多い。
本稿では,アクセント動的シーンモデリングにおける周波数適応性と時間連続性の両方に対処する統合フレームワークであるAdaGaRを提案する。
本稿では,学習可能な周波数重みによるガウシアンの拡張と,詳細なキャプチャと安定性のバランスをとるための適応エネルギー補償を提案する。
時間的連続性のために、スムーズな動きの進化を保証するため、時間的曲率正規化を施した立方ヘルミートスプラインを用いる。
深度推定、点追跡、前景マスクを組み合わせた適応初期化機構は、早期訓練において安定した点雲分布を確立する。
Tap-Vid DAVISの実験では、最先端性能(PSNR 35.49、SSIM 0.9433、LPIPS 0.0723)とフレーム補間、奥行きの整合性、ビデオ編集、ステレオビュー合成の強い一般化が示されている。
プロジェクトページ: https://jiewenchan.github.io/AdaGaR/
関連論文リスト
- Towards Arbitrary Motion Completing via Hierarchical Continuous Representation [64.6525112550758]
Inlicit Representations(INR)に基づくNAMEと呼ばれる新しいパラメトリックアクティベーションによる階層的暗黙表現フレームワークを提案する。
本手法では,複数の時間スケールで動作列から特徴を抽出し,複雑な時間パターンを効果的に捕捉する階層的時間符号化機構を提案する。
論文 参考訳(メタデータ) (2025-12-24T14:07:04Z) - VDEGaussian: Video Diffusion Enhanced 4D Gaussian Splatting for Dynamic Urban Scenes Modeling [68.65587507038539]
本稿では,動的都市景観モデリングのための拡散強調4次元ガウス平滑化フレームワークを提案する。
我々の重要な洞察は、テスト時間に適応したビデオ拡散モデルから頑健で時間的に一貫した事前情報を抽出することである。
提案手法は, 高速移動物体の動的モデリングを著しく向上させ, 2dBのPSNRゲインを近似的に達成する。
論文 参考訳(メタデータ) (2025-08-04T07:24:05Z) - D-FCGS: Feedforward Compression of Dynamic Gaussian Splatting for Free-Viewpoint Videos [12.24209693552492]
自由視点ビデオ(FVV)は没入型3D体験を可能にするが、動的3D表現の効率的な圧縮は依然として大きな課題である。
本稿では,時間的に相関したガウス点雲列を圧縮する新しいフィードフォワードフレームワークである動的ガウス散乱(D-FCGS)のフィードフォワード圧縮を提案する。
実験の結果,最適化手法の速度歪み特性と一致し,40倍以上の圧縮を2秒以内で達成した。
論文 参考訳(メタデータ) (2025-07-08T10:39:32Z) - STD-GS: Exploring Frame-Event Interaction for SpatioTemporal-Disentangled Gaussian Splatting to Reconstruct High-Dynamic Scene [54.418259038624406]
既存の手法ではフレームカメラのシーンと直接一致させるために統一表現モデル(例えばガウシアン)を採用している。
しかし、この統一パラダイムは、フレームの特徴と背景とオブジェクト間の不連続な空間的特徴により、オブジェクトの潜在的時間的特徴に失敗する。
本研究では,フレームカメラを補うイベントカメラを導入し,高ダイナミックなシーン再構成のための時分割型ガウススプレイティングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-29T09:32:06Z) - HAIF-GS: Hierarchical and Induced Flow-Guided Gaussian Splatting for Dynamic Scene [24.789092424634536]
本稿では,スパースアンカー駆動変形による構造的・一貫した動的モデリングを実現する統合フレームワークHAIF-GSを提案する。
HAIF-GSは, レンダリング品質, 時間的コヒーレンス, 再構成効率において, 従来の動的3DGS法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-06-11T08:45:08Z) - NormalCrafter: Learning Temporally Consistent Normals from Video Diffusion Priors [6.7253553166914255]
ビデオ拡散モデルの本質的な時間的先行性を活用するために,NormalCrafterを提案する。
シーケンス間の高忠実度正規推定を実現するために,セマンティック特徴正規化を提案する。
また,長時間の時間的文脈を維持しながら空間的精度を維持するための2段階トレーニングプロトコルも導入した。
論文 参考訳(メタデータ) (2025-04-15T17:39:07Z) - EvolvingGS: High-Fidelity Streamable Volumetric Video via Evolving 3D Gaussian Representation [14.402479944396665]
EvolvingGSは、まずターゲットフレームに合わせるためにガウスモデルを変形させ、最小点加算/減算で洗練する2段階戦略である。
漸進的に進化する表現の柔軟性のため,本手法はフレーム単位と時間単位の品質指標の両方で既存手法より優れている。
我々の手法は、特に複雑な人間のパフォーマンスを持つ拡張シーケンスにおいて、動的シーン再構成の最先端性を著しく向上させる。
論文 参考訳(メタデータ) (2025-03-07T06:01:07Z) - DeSiRe-GS: 4D Street Gaussians for Static-Dynamic Decomposition and Surface Reconstruction for Urban Driving Scenes [71.61083731844282]
本稿では,自己教師型ガウススプラッティング表現であるDeSiRe-GSについて述べる。
複雑な駆動シナリオにおいて、効率的な静的・動的分解と高忠実な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-11-18T05:49:16Z) - Periodic Vibration Gaussian: Dynamic Urban Scene Reconstruction and Real-time Rendering [49.36767999382054]
周期振動ガウスモデル(PVG)を提案する。
PVGは、当初静的シーン表現のために設計された効率的な3Dガウススプラッティング技術に基づいている。
PVGは、最良の代替品よりも900倍の速度でレンダリングできる。
論文 参考訳(メタデータ) (2023-11-30T13:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。