論文の概要: MoAngelo: Motion-Aware Neural Surface Reconstruction for Dynamic Scenes
- arxiv url: http://arxiv.org/abs/2509.15892v1
- Date: Fri, 19 Sep 2025 11:43:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.147386
- Title: MoAngelo: Motion-Aware Neural Surface Reconstruction for Dynamic Scenes
- Title(参考訳): MoAngelo:動的シーンのための運動認識型ニューラルサーフェス再構成
- Authors: Mohamed Ebbed, Zorah Lähner,
- Abstract要約: 本稿では,静的3次元再構成手法であるNeuralAngeloを拡張した,高精細な動的再構成のための新しいフレームワークを提案する。
本稿では,ActorsHQデータセットにおける従来の最先端手法と比較して,再構築精度が優れていることを示す。
- 参考スコア(独自算出の注目度): 9.504709780252979
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic scene reconstruction from multi-view videos remains a fundamental challenge in computer vision. While recent neural surface reconstruction methods have achieved remarkable results in static 3D reconstruction, extending these approaches with comparable quality for dynamic scenes introduces significant computational and representational challenges. Existing dynamic methods focus on novel-view synthesis, therefore, their extracted meshes tend to be noisy. Even approaches aiming for geometric fidelity often result in too smooth meshes due to the ill-posedness of the problem. We present a novel framework for highly detailed dynamic reconstruction that extends the static 3D reconstruction method NeuralAngelo to work in dynamic settings. To that end, we start with a high-quality template scene reconstruction from the initial frame using NeuralAngelo, and then jointly optimize deformation fields that track the template and refine it based on the temporal sequence. This flexible template allows updating the geometry to include changes that cannot be modeled with the deformation field, for instance occluded parts or the changes in the topology. We show superior reconstruction accuracy in comparison to previous state-of-the-art methods on the ActorsHQ dataset.
- Abstract(参考訳): マルチビュービデオからの動的シーン再構成は、コンピュータビジョンの根本的な課題である。
最近のニューラルサーフェス再構成法は静的な3次元再構成において顕著な結果を得たが、動的シーンに匹敵する品質でこれらのアプローチを拡張したことにより、計算と表現に重大な課題がもたらされた。
既存の動的手法は新規なビュー合成に重点を置いているため、抽出されたメッシュはノイズが多い傾向にある。
幾何学的忠実性を目指すアプローチでさえ、問題の不備のため、しばしばスムーズなメッシュが生じる。
本稿では,静的な3次元再構成手法であるNeuralAngeloを動的に動作させるために,高精細な動的再構成のための新しいフレームワークを提案する。
そのために、NeuralAngeloを用いて、初期フレームから高品質なテンプレートシーンを再構築し、その後、テンプレートを追跡する変形フィールドを共同で最適化し、時間的シーケンスに基づいて洗練する。
この柔軟なテンプレートは、例えば閉塞された部分やトポロジの変化など、変形場でモデル化できない変化を含むように幾何学を更新することができる。
本稿では,ActorsHQデータセットにおける従来の最先端手法と比較して,再構築精度が優れていることを示す。
関連論文リスト
- NGD: Neural Gradient Based Deformation for Monocular Garment Reconstruction [2.8801537805576776]
モノクロ映像から動的に衣料を復元することは、衣料の複雑なダイナミクスと制約のない性質のために重要な課題であるが、難しい課題である。
ニューラルレンダリングの最近の進歩は、画像/映像の監督による高品質な幾何学的再構成を可能にしている。
モノクラービデオから動的に進化するテクスチャ化された衣服を再構成する,ニューラルグラディエントに基づく変形法NGDを提案する。
論文 参考訳(メタデータ) (2025-08-25T06:40:57Z) - Learning Multi-frame and Monocular Prior for Estimating Geometry in Dynamic Scenes [56.936178608296906]
我々は,MMPと呼ばれる新しいモデルを提案し,その形状をフィードフォワード方式で推定する。
近年のシームズアーキテクチャに基づいて,新しい軌道符号化モジュールを導入する。
MMPはフィードフォワードのポイントマップ予測において最先端の品質を実現することができる。
論文 参考訳(メタデータ) (2025-05-03T08:28:15Z) - MonST3R: A Simple Approach for Estimating Geometry in the Presence of Motion [118.74385965694694]
我々は動的シーンから時間ステップごとの幾何を直接推定する新しい幾何学的アプローチであるMotion DUSt3R(MonST3R)を提案する。
各タイムステップのポイントマップを単純に推定することで、静的シーンにのみ使用されるDUST3Rの表現を動的シーンに効果的に適応させることができる。
我々は、問題を微調整タスクとしてポーズし、いくつかの適切なデータセットを特定し、この制限されたデータ上でモデルを戦略的に訓練することで、驚くほどモデルを動的に扱えることを示す。
論文 参考訳(メタデータ) (2024-10-04T18:00:07Z) - TFS-NeRF: Template-Free NeRF for Semantic 3D Reconstruction of Dynamic Scene [25.164085646259856]
本稿では,スパースやシングルビューRGBビデオから撮影したダイナミックシーンのためのテンプレートレス3DセマンティックNeRFを提案する。
相互作用する物体の動きを遠ざけ, 濃度ごとのスキン厚みを最適化することにより, 高精度でセマンティックに分離可能なジオメトリを効率的に生成する。
論文 参考訳(メタデータ) (2024-09-26T01:34:42Z) - SceNeRFlow: Time-Consistent Reconstruction of General Dynamic Scenes [75.9110646062442]
我々はSceNeRFlowを提案し、時間的一貫性のある方法で一般的な非剛体シーンを再構築する。
提案手法は,カメラパラメータを入力として,静止カメラからのマルチビューRGBビデオと背景画像を取得する。
実験により,小規模動作のみを扱う先行作業とは異なり,スタジオスケール動作の再構築が可能であることが示された。
論文 参考訳(メタデータ) (2023-08-16T09:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。