論文の概要: Learning Dynamic Scene Reconstruction with Sinusoidal Geometric Priors
- arxiv url: http://arxiv.org/abs/2512.22295v1
- Date: Thu, 25 Dec 2025 20:51:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:29.969364
- Title: Learning Dynamic Scene Reconstruction with Sinusoidal Geometric Priors
- Title(参考訳): Sinusoidal Geometric Priors を用いた動的シーン再構成の学習
- Authors: Tian Guo, Hui Yuan, Philip Xu, David Elizondo,
- Abstract要約: 本稿では,3次元シーン再構成の精度向上のために,正弦波表現ネットワークの周期的活性化とキーポイント構造から派生した幾何的先行情報を組み合わせた新しい損失関数であるSierenPoseを提案する。
- 参考スコア(独自算出の注目度): 8.153339288887922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose SirenPose, a novel loss function that combines the periodic activation properties of sinusoidal representation networks with geometric priors derived from keypoint structures to improve the accuracy of dynamic 3D scene reconstruction. Existing approaches often struggle to maintain motion modeling accuracy and spatiotemporal consistency in fast moving and multi target scenes. By introducing physics inspired constraint mechanisms, SirenPose enforces coherent keypoint predictions across both spatial and temporal dimensions. We further expand the training dataset to 600,000 annotated instances to support robust learning. Experimental results demonstrate that models trained with SirenPose achieve significant improvements in spatiotemporal consistency metrics compared to prior methods, showing superior performance in handling rapid motion and complex scene changes.
- Abstract(参考訳): 本稿では,鍵点構造から導出される幾何学的先行特性と正弦波表現ネットワークの周期的活性化特性を組み合わせ,動的3次元シーン再構成の精度を向上させる新しい損失関数であるSierenPoseを提案する。
既存のアプローチは、高速な移動シーンとマルチターゲットシーンにおいて、運動モデリングの精度と時空間一貫性を維持するのに苦労することが多い。
物理にインスパイアされた制約機構を導入することで、SirenPoseは空間次元と時間次元の両方にわたってコヒーレントなキーポイント予測を実行する。
さらに、堅牢な学習をサポートするために、トレーニングデータセットを60,000のアノテーション付きインスタンスに拡張しています。
実験結果から,SierenPoseで訓練したモデルでは,従来の手法に比べて時空間整合度が有意に向上し,迅速な動きや複雑なシーン変化の処理に優れた性能を示した。
関連論文リスト
- SirenPose: Dynamic Scene Reconstruction via Geometric Supervision [12.966077380225856]
本稿では,鍵点に基づく幾何監督と特性正弦波表現ネットワークの周期的活性化を統合した幾何認識損失定式化であるSirenPoseを紹介する。
ポーズ推定において、SirenPoseは、絶対軌道誤差の低いMonst3Rと、変換および回転相対ポーズ誤差の低減で性能を向上する。
論文 参考訳(メタデータ) (2025-12-23T17:23:21Z) - PEGS: Physics-Event Enhanced Large Spatiotemporal Motion Reconstruction via 3D Gaussian Splatting [8.672740691555736]
PEGSは3D Gaussian Splattingパイプライン内でのイベントストリーム拡張と物理プライオリティを統合するフレームワークである。
本稿では,加速度制約を通した物理的妥当性を強制する3段階の監視手法を提案する。
また、さまざまなデータセットにまたがる自然な高速な動きをターゲットとした、最初のRGB-Eventペアも提供します。
論文 参考訳(メタデータ) (2025-11-21T10:27:51Z) - DGS-LRM: Real-Time Deformable 3D Gaussian Reconstruction From Monocular Videos [52.46386528202226]
Deformable Gaussian Splats Large Reconstruction Model (DGS-LRM)を紹介する。
動的シーンのモノクロポーズビデオから変形可能な3Dガウススプラットを予測する最初のフィードフォワード法である。
最先端のモノクロビデオ3D追跡手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2025-06-11T17:59:58Z) - STDR: Spatio-Temporal Decoupling for Real-Time Dynamic Scene Rendering [15.873329633980015]
既存の3DGSに基づく動的再構成法は、しばしばtextbfSTDR(リアルタイムレンダリングのための空間結合デテンポラル)に悩まされる
実時間レンダリングのためのテキストbfSTDR (Spatio-coupling DeTemporal for Real-time rendering) を提案する。
論文 参考訳(メタデータ) (2025-05-28T14:26:41Z) - Geometry-aware Active Learning of Spatiotemporal Dynamic Systems [4.251030047034566]
本稿では,動的システムのモデリングのための幾何対応能動学習フレームワークを提案する。
データ収集のための空間的位置を戦略的に識別し、予測精度をさらに最大化する適応型能動学習戦略を開発した。
論文 参考訳(メタデータ) (2025-04-26T19:56:38Z) - EMoTive: Event-guided Trajectory Modeling for 3D Motion Estimation [59.33052312107478]
イベントカメラは、シーン変化に対する連続的適応ピクセルレベル応答による3次元モーション推定の可能性を提供する。
本稿では,イベント誘導パラメトリック曲線を用いた一様軌道をモデル化するイベントベースフレームワークであるEMoveについて述べる。
動作表現には,事象誘導下での空間的特徴と時間的特徴を融合する密度認識適応機構を導入する。
最終3次元運動推定は、パラメトリック軌道、流れ、深度運動場の多時間サンプリングによって達成される。
論文 参考訳(メタデータ) (2025-03-14T13:15:54Z) - Adaptive and Temporally Consistent Gaussian Surfels for Multi-view Dynamic Reconstruction [3.9363268745580426]
AT-GSは、フレーム単位のインクリメンタル最適化により、多視点ビデオから高品質な動的曲面を再構成する新しい手法である。
連続するフレーム間の曲率写像の整合性を確保することにより、動的表面における時間的ジッタリングを低減する。
本手法は動的表面再構成の精度と時間的コヒーレンスを向上し,高忠実度空間時間新奇なビュー合成を実現する。
論文 参考訳(メタデータ) (2024-11-10T21:30:16Z) - MonST3R: A Simple Approach for Estimating Geometry in the Presence of Motion [118.74385965694694]
我々は動的シーンから時間ステップごとの幾何を直接推定する新しい幾何学的アプローチであるMotion DUSt3R(MonST3R)を提案する。
各タイムステップのポイントマップを単純に推定することで、静的シーンにのみ使用されるDUST3Rの表現を動的シーンに効果的に適応させることができる。
我々は、問題を微調整タスクとしてポーズし、いくつかの適切なデータセットを特定し、この制限されたデータ上でモデルを戦略的に訓練することで、驚くほどモデルを動的に扱えることを示す。
論文 参考訳(メタデータ) (2024-10-04T18:00:07Z) - Triplet Attention Transformer for Spatiotemporal Predictive Learning [9.059462850026216]
本稿では,フレーム間動的特徴とフレーム内静的特徴の両方を捉えるために,革新的な三重項注意変換器を提案する。
このモデルはトリプレット・アテンション・モジュール(TAM)を組み込んだもので、時間、空間、チャネル次元における自己アテンションのメカニズムを探求することで、従来のリカレント・ユニットを置き換える。
論文 参考訳(メタデータ) (2023-10-28T12:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。