論文の概要: Neu-PiG: Neural Preconditioned Grids for Fast Dynamic Surface Reconstruction on Long Sequences
- arxiv url: http://arxiv.org/abs/2602.22212v1
- Date: Wed, 25 Feb 2026 18:59:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.961851
- Title: Neu-PiG: Neural Preconditioned Grids for Fast Dynamic Surface Reconstruction on Long Sequences
- Title(参考訳): Neu-PiG:ロングシーケンス上での高速な動的表面再構成のためのニューラルプレコンディショニンググリッド
- Authors: Julian Kaltheuner, Hannah Dröge, Markus Plack, Patrick Stotko, Reinhard Klein,
- Abstract要約: 我々は,新しい事前条件付き遅延グリッド符号化に基づく高速変形最適化法であるNeu-PiGを提案する。
本手法は, 様々な空間スケールにおける全時間ステップの変形を多分解能潜在格子に符号化する。
高忠実でドリフトフリーな表面再構成を数秒で実現するため、潜伏空間の勾配に基づくトレーニング中にソボレフプレコンディショニングを用いる。
- 参考スコア(独自算出の注目度): 6.316764936463191
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Temporally consistent surface reconstruction of dynamic 3D objects from unstructured point cloud data remains challenging, especially for very long sequences. Existing methods either optimize deformations incrementally, risking drift and requiring long runtimes, or rely on complex learned models that demand category-specific training. We present Neu-PiG, a fast deformation optimization method based on a novel preconditioned latent-grid encoding that distributes spatial features parameterized on the position and normal direction of a keyframe surface. Our method encodes entire deformations across all time steps at various spatial scales into a multi-resolution latent grid, parameterized by the position and normal direction of a reference surface from a single keyframe. This latent representation is then augmented for time modulation and decoded into per-frame 6-DoF deformations via a lightweight multilayer perceptron (MLP). To achieve high-fidelity, drift-free surface reconstructions in seconds, we employ Sobolev preconditioning during gradient-based training of the latent space, completely avoiding the need for any explicit correspondences or further priors. Experiments across diverse human and animal datasets demonstrate that Neu-PiG outperforms state-the-art approaches, offering both superior accuracy and scalability to long sequences while running at least 60x faster than existing training-free methods and achieving inference speeds on the same order as heavy pretrained models.
- Abstract(参考訳): 非構造点雲データからの動的3次元物体の時間的一貫した表面再構成は、特に非常に長いシーケンスにおいて困難である。
既存の方法は、変形を漸進的に最適化し、ドリフトを危険にさらし、長いランタイムを必要とするか、あるいはカテゴリ固有のトレーニングを必要とする複雑な学習モデルに依存している。
我々は,キーフレーム表面の位置と通常の方向をパラメータ化した空間的特徴を分散する,新しいプレコンディション付き潜在グリッド符号化に基づく高速変形最適化手法であるNeu-PiGを提案する。
提案手法は, 各種空間スケールにおける全時間ステップの変形を多分解能潜在格子に符号化し, 単一のキーフレームから参照面の位置と正規方向をパラメータ化する。
この潜在表現は、時間変調のために拡張され、軽量多層パーセプトロン(MLP)を介してフレーム毎の6-DoF変形にデコードされる。
高忠実でドリフトフリーな表面再構成を数秒で達成するために、潜伏空間の勾配に基づくトレーニング中にソボレフ事前条件を適用し、明示的な対応やそれ以上の先行処理の必要を完全に回避する。
さまざまな人や動物のデータセットに対する実験により、Neu-PiGは最先端のアプローチよりも優れており、既存のトレーニング不要の手法よりも少なくとも60倍高速に動作し、重い事前訓練されたモデルと同じ順序で推論速度を達成しながら、長いシーケンスに優れた精度とスケーラビリティを提供する。
関連論文リスト
- EvolvingGS: High-Fidelity Streamable Volumetric Video via Evolving 3D Gaussian Representation [14.402479944396665]
EvolvingGSは、まずターゲットフレームに合わせるためにガウスモデルを変形させ、最小点加算/減算で洗練する2段階戦略である。
漸進的に進化する表現の柔軟性のため,本手法はフレーム単位と時間単位の品質指標の両方で既存手法より優れている。
我々の手法は、特に複雑な人間のパフォーマンスを持つ拡張シーケンスにおいて、動的シーン再構成の最先端性を著しく向上させる。
論文 参考訳(メタデータ) (2025-03-07T06:01:07Z) - 4Deform: Neural Surface Deformation for Robust Shape Interpolation [47.47045870313048]
本研究では,非構造化データにおける非剛性変形形状間の中間形状を現実的に生成するための新しい手法を開発した。
本手法はユークリッド空間における連続速度場を学習し,訓練中に中間形状の監視を必要としない。
提案手法は, 4次元Kinectシークエンスアップサンプリングや実世界の高分解能メッシュ変形などの新しいアプリケーションを実現する。
論文 参考訳(メタデータ) (2025-02-27T15:47:49Z) - Adaptive and Temporally Consistent Gaussian Surfels for Multi-view Dynamic Reconstruction [3.9363268745580426]
AT-GSは、フレーム単位のインクリメンタル最適化により、多視点ビデオから高品質な動的曲面を再構成する新しい手法である。
連続するフレーム間の曲率写像の整合性を確保することにより、動的表面における時間的ジッタリングを低減する。
本手法は動的表面再構成の精度と時間的コヒーレンスを向上し,高忠実度空間時間新奇なビュー合成を実現する。
論文 参考訳(メタデータ) (2024-11-10T21:30:16Z) - TFS-NeRF: Template-Free NeRF for Semantic 3D Reconstruction of Dynamic Scene [25.164085646259856]
本稿では,スパースやシングルビューRGBビデオから撮影したダイナミックシーンのためのテンプレートレス3DセマンティックNeRFを提案する。
相互作用する物体の動きを遠ざけ, 濃度ごとのスキン厚みを最適化することにより, 高精度でセマンティックに分離可能なジオメトリを効率的に生成する。
論文 参考訳(メタデータ) (2024-09-26T01:34:42Z) - Stable Surface Regularization for Fast Few-Shot NeRF [76.00444039563581]
我々はAnnealing Signed Distance Function (ASDF) と呼ばれる安定表面正規化手法を開発した。
SDFの異なるレベルセットを形成するためには、アイコンの損失が密集した訓練信号を必要とすることが観察され、数発の訓練で低忠実度結果が得られた。
提案手法は、既存の数発の新規ビュー合成法よりも最大45倍高速である。
論文 参考訳(メタデータ) (2024-03-29T05:39:47Z) - SceNeRFlow: Time-Consistent Reconstruction of General Dynamic Scenes [75.9110646062442]
我々はSceNeRFlowを提案し、時間的一貫性のある方法で一般的な非剛体シーンを再構築する。
提案手法は,カメラパラメータを入力として,静止カメラからのマルチビューRGBビデオと背景画像を取得する。
実験により,小規模動作のみを扱う先行作業とは異なり,スタジオスケール動作の再構築が可能であることが示された。
論文 参考訳(メタデータ) (2023-08-16T09:50:35Z) - Fast Monocular Scene Reconstruction with Global-Sparse Local-Dense Grids [84.90863397388776]
本稿では,スパルス・ボクセル・ブロック・グリッドにおける署名付き距離関数(SDF)を直接使用して,距離のない高速かつ正確なシーン再構成を実現することを提案する。
我々の世界規模で疎密で局所的なデータ構造は、表面の空間的空間性を利用して、キャッシュフレンドリーなクエリを可能にし、マルチモーダルデータへの直接拡張を可能にします。
実験により、我々のアプローチはトレーニングでは10倍、レンダリングでは100倍高速であり、最先端のニューラル暗黙法に匹敵する精度を実現していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T16:50:19Z) - NeuS2: Fast Learning of Neural Implicit Surfaces for Multi-view
Reconstruction [95.37644907940857]
我々はNeuS2と呼ばれる高速な神経表面再構成手法を提案する。
NeuS2は、再構成品質を損なうことなく、加速度の2桁の精度向上を実現している。
本研究では,動的シーンの高速トレーニングのための手法を拡張し,インクリメンタルトレーニング戦略と新たなグローバルトランスフォーメーション予測コンポーネントを提案する。
論文 参考訳(メタデータ) (2022-12-10T07:19:43Z) - Progressive Encoding for Neural Optimization [92.55503085245304]
メッシュ転送におけるppe層の能力と,そのアドバンテージを,現代の表面マッピング技術と比較した。
最も重要な点は, パラメタライズフリーな手法であり, 様々な対象形状表現に適用可能であることである。
論文 参考訳(メタデータ) (2021-04-19T08:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。