論文の概要: MoAngelo: Motion-Aware Neural Surface Reconstruction for Dynamic Scenes
- arxiv url: http://arxiv.org/abs/2509.15892v1
- Date: Fri, 19 Sep 2025 11:43:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.147386
- Title: MoAngelo: Motion-Aware Neural Surface Reconstruction for Dynamic Scenes
- Title(参考訳): MoAngelo:動的シーンのための運動認識型ニューラルサーフェス再構成
- Authors: Mohamed Ebbed, Zorah Lähner,
- Abstract要約: 本稿では,静的3次元再構成手法であるNeuralAngeloを拡張した,高精細な動的再構成のための新しいフレームワークを提案する。
本稿では,ActorsHQデータセットにおける従来の最先端手法と比較して,再構築精度が優れていることを示す。
- 参考スコア(独自算出の注目度): 9.504709780252979
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic scene reconstruction from multi-view videos remains a fundamental challenge in computer vision. While recent neural surface reconstruction methods have achieved remarkable results in static 3D reconstruction, extending these approaches with comparable quality for dynamic scenes introduces significant computational and representational challenges. Existing dynamic methods focus on novel-view synthesis, therefore, their extracted meshes tend to be noisy. Even approaches aiming for geometric fidelity often result in too smooth meshes due to the ill-posedness of the problem. We present a novel framework for highly detailed dynamic reconstruction that extends the static 3D reconstruction method NeuralAngelo to work in dynamic settings. To that end, we start with a high-quality template scene reconstruction from the initial frame using NeuralAngelo, and then jointly optimize deformation fields that track the template and refine it based on the temporal sequence. This flexible template allows updating the geometry to include changes that cannot be modeled with the deformation field, for instance occluded parts or the changes in the topology. We show superior reconstruction accuracy in comparison to previous state-of-the-art methods on the ActorsHQ dataset.
- Abstract(参考訳): マルチビュービデオからの動的シーン再構成は、コンピュータビジョンの根本的な課題である。
最近のニューラルサーフェス再構成法は静的な3次元再構成において顕著な結果を得たが、動的シーンに匹敵する品質でこれらのアプローチを拡張したことにより、計算と表現に重大な課題がもたらされた。
既存の動的手法は新規なビュー合成に重点を置いているため、抽出されたメッシュはノイズが多い傾向にある。
幾何学的忠実性を目指すアプローチでさえ、問題の不備のため、しばしばスムーズなメッシュが生じる。
本稿では,静的な3次元再構成手法であるNeuralAngeloを動的に動作させるために,高精細な動的再構成のための新しいフレームワークを提案する。
そのために、NeuralAngeloを用いて、初期フレームから高品質なテンプレートシーンを再構築し、その後、テンプレートを追跡する変形フィールドを共同で最適化し、時間的シーケンスに基づいて洗練する。
この柔軟なテンプレートは、例えば閉塞された部分やトポロジの変化など、変形場でモデル化できない変化を含むように幾何学を更新することができる。
本稿では,ActorsHQデータセットにおける従来の最先端手法と比較して,再構築精度が優れていることを示す。
関連論文リスト
- 4D3R: Motion-Aware Neural Reconstruction and Rendering of Dynamic Scenes from Monocular Videos [52.89084603734664]
静的および動的コンポーネントを2段階のアプローチで分離する,ポーズフリーな動的ニューラルネットワークレンダリングフレームワークである4D3Rを提案する。
提案手法は最先端手法よりも最大1.8dBPSNRの改善を実現する。
論文 参考訳(メタデータ) (2025-11-07T13:25:50Z) - NGD: Neural Gradient Based Deformation for Monocular Garment Reconstruction [2.8801537805576776]
モノクロ映像から動的に衣料を復元することは、衣料の複雑なダイナミクスと制約のない性質のために重要な課題であるが、難しい課題である。
ニューラルレンダリングの最近の進歩は、画像/映像の監督による高品質な幾何学的再構成を可能にしている。
モノクラービデオから動的に進化するテクスチャ化された衣服を再構成する,ニューラルグラディエントに基づく変形法NGDを提案する。
論文 参考訳(メタデータ) (2025-08-25T06:40:57Z) - DriveSplat: Decoupled Driving Scene Reconstruction with Geometry-enhanced Partitioned Neural Gaussians [16.363638581354305]
運転シナリオの領域では、高速走行車、歩行者の移動、大規模静的背景の存在が、3Dシーンの再構築に重大な課題となっている。
3次元ガウス散乱に基づく最近の手法は、シーン内の動的成分と静的成分を分離することで、動きのぼかし問題に対処する。
本稿では,動的静的デカップリングを用いたニューラルガウス表現に基づくシナリオ駆動のための高品質な再構成手法であるDriveSplatを紹介する。
論文 参考訳(メタデータ) (2025-08-21T09:14:50Z) - Learning Multi-frame and Monocular Prior for Estimating Geometry in Dynamic Scenes [56.936178608296906]
我々は,MMPと呼ばれる新しいモデルを提案し,その形状をフィードフォワード方式で推定する。
近年のシームズアーキテクチャに基づいて,新しい軌道符号化モジュールを導入する。
MMPはフィードフォワードのポイントマップ予測において最先端の品質を実現することができる。
論文 参考訳(メタデータ) (2025-05-03T08:28:15Z) - ReMatching Dynamic Reconstruction Flow [55.272357926111454]
この研究は、動的再構成モデルに変形前処理を組み込むことにより、再構成品質を改善するために設計されたReMatchingフレームワークを導入している。
提案手法では,既存の動的再構成パイプラインをシームレスに補うためのマッチング手順を提案する。
合成・実世界の動的シーンを含む一般的なベンチマーク評価では, 現状の手法を改良することで, 再現精度が向上することが示されている。
論文 参考訳(メタデータ) (2024-11-01T16:09:33Z) - MonST3R: A Simple Approach for Estimating Geometry in the Presence of Motion [118.74385965694694]
我々は動的シーンから時間ステップごとの幾何を直接推定する新しい幾何学的アプローチであるMotion DUSt3R(MonST3R)を提案する。
各タイムステップのポイントマップを単純に推定することで、静的シーンにのみ使用されるDUST3Rの表現を動的シーンに効果的に適応させることができる。
我々は、問題を微調整タスクとしてポーズし、いくつかの適切なデータセットを特定し、この制限されたデータ上でモデルを戦略的に訓練することで、驚くほどモデルを動的に扱えることを示す。
論文 参考訳(メタデータ) (2024-10-04T18:00:07Z) - TFS-NeRF: Template-Free NeRF for Semantic 3D Reconstruction of Dynamic Scene [25.164085646259856]
本稿では,スパースやシングルビューRGBビデオから撮影したダイナミックシーンのためのテンプレートレス3DセマンティックNeRFを提案する。
相互作用する物体の動きを遠ざけ, 濃度ごとのスキン厚みを最適化することにより, 高精度でセマンティックに分離可能なジオメトリを効率的に生成する。
論文 参考訳(メタデータ) (2024-09-26T01:34:42Z) - Reconstructing Topology-Consistent Face Mesh by Volume Rendering from Multi-View Images [71.20113392204183]
産業用3Dフェイスアセット作成は通常、下流生産のために多視点画像からトポロジに一貫性のあるフェイスメッシュを再構築する。
NeRFは3次元再構成において、シーンを密度場と放射場として表現することで大きな利点を示した。
多視点画像からアーティストが作ったテンプレートフェイスメッシュの形状を最適化するために,明示的メッシュとニューラルボリュームレンダリングを組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-08T15:25:50Z) - Physics-guided Shape-from-Template: Monocular Video Perception through Neural Surrogate Models [4.529832252085145]
トレーニング済みニューラルネットワークを用いた布のSfT再構成アルゴリズムを提案する。
シミュレーションメッシュの異なるレンダリングにより、再構成と対象のビデオシーケンスの画素ワイズ比較が可能になる。
これにより、$phi$-SfTに比べて400-500の係数でランタイムを削減しつつ、正確で安定した、スムーズな再構築された幾何を維持することができる。
論文 参考訳(メタデータ) (2023-11-21T18:59:58Z) - SceNeRFlow: Time-Consistent Reconstruction of General Dynamic Scenes [75.9110646062442]
我々はSceNeRFlowを提案し、時間的一貫性のある方法で一般的な非剛体シーンを再構築する。
提案手法は,カメラパラメータを入力として,静止カメラからのマルチビューRGBビデオと背景画像を取得する。
実験により,小規模動作のみを扱う先行作業とは異なり,スタジオスケール動作の再構築が可能であることが示された。
論文 参考訳(メタデータ) (2023-08-16T09:50:35Z) - Dynamic Multi-View Scene Reconstruction Using Neural Implicit Surface [0.9134661726886928]
マルチビュービデオからの暗黙表現を用いて表面形状と外観を再構成するテンプレートレス手法を提案する。
我々はトポロジーを考慮した変形と符号付き距離場を利用して、微分可能なボリュームレンダリングにより複雑な動的曲面を学習する。
異なる多視点ビデオデータセットを用いた実験により,本手法は高忠実度表面再構成とフォトリアリスティックなノベルビュー合成を実現することを示す。
論文 参考訳(メタデータ) (2023-02-28T19:47:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。