論文の概要: VDNeRF: Vision-only Dynamic Neural Radiance Field for Urban Scenes
- arxiv url: http://arxiv.org/abs/2511.06408v1
- Date: Sun, 09 Nov 2025 14:45:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.929401
- Title: VDNeRF: Vision-only Dynamic Neural Radiance Field for Urban Scenes
- Title(参考訳): VDNeRF:都市景観のための視覚のみの動的ニューラル放射場
- Authors: Zhengyu Zou, Jingfeng Li, Hao Li, Xiaolei Hou, Jinwen Hu, Jingkun Chen, Lechao Cheng, Dingwen Zhang,
- Abstract要約: 視覚のみのダイナミックNeRF(VDRF)は、カメラの軌跡を復元し、動的都市景観の時間的表現を学習する手法である。
VDNeRFは、カメラポーズ推定とダイナミックノベルビュー合成の両方において、最先端のNeRFベースのポーズフリー手法を超越している。
- 参考スコア(独自算出の注目度): 41.59812880106718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Radiance Fields (NeRFs) implicitly model continuous three-dimensional scenes using a set of images with known camera poses, enabling the rendering of photorealistic novel views. However, existing NeRF-based methods encounter challenges in applications such as autonomous driving and robotic perception, primarily due to the difficulty of capturing accurate camera poses and limitations in handling large-scale dynamic environments. To address these issues, we propose Vision-only Dynamic NeRF (VDNeRF), a method that accurately recovers camera trajectories and learns spatiotemporal representations for dynamic urban scenes without requiring additional camera pose information or expensive sensor data. VDNeRF employs two separate NeRF models to jointly reconstruct the scene. The static NeRF model optimizes camera poses and static background, while the dynamic NeRF model incorporates the 3D scene flow to ensure accurate and consistent reconstruction of dynamic objects. To address the ambiguity between camera motion and independent object motion, we design an effective and powerful training framework to achieve robust camera pose estimation and self-supervised decomposition of static and dynamic elements in a scene. Extensive evaluations on mainstream urban driving datasets demonstrate that VDNeRF surpasses state-of-the-art NeRF-based pose-free methods in both camera pose estimation and dynamic novel view synthesis.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)は、既知のカメラポーズを持つ一連の画像を用いて、連続した3次元のシーンを暗黙的にモデル化し、フォトリアリスティックなノベルビューのレンダリングを可能にする。
しかし、既存のNeRFベースの手法は、自律運転やロボット知覚などの応用において、カメラの正確なポーズを捉えるのが困難であることや、大規模な動的環境を扱う際の限界によって、課題に直面している。
これらの問題に対処するために,視覚のみのダイナミックNeRF (VDNeRF) を提案する。カメラのポーズ情報や高価なセンサデータを必要とすることなく,カメラの軌道を正確に復元し,動的都市景観の時空間表現を学習する手法である。
VDNeRFは2つの別々のNeRFモデルを使用してシーンを共同で再構築する。
静的NeRFモデルはカメラポーズと静的背景を最適化し、動的NeRFモデルは3次元シーンフローを取り入れ、動的オブジェクトの正確かつ一貫した再構成を保証する。
カメラの動きと独立物体の動きのあいまいさに対処するため,ロバストなカメラポーズ推定と静的および動的要素の自己監督的分解を実現するための,効果的で強力なトレーニングフレームワークを設計する。
VDNeRFは、カメラポーズ推定とダイナミックノベルビュー合成の両方において、最先端のNeRFベースのポーズフリー手法を超越していることを示す。
関連論文リスト
- 4D3R: Motion-Aware Neural Reconstruction and Rendering of Dynamic Scenes from Monocular Videos [52.89084603734664]
静的および動的コンポーネントを2段階のアプローチで分離する,ポーズフリーな動的ニューラルネットワークレンダリングフレームワークである4D3Rを提案する。
提案手法は最先端手法よりも最大1.8dBPSNRの改善を実現する。
論文 参考訳(メタデータ) (2025-11-07T13:25:50Z) - RA-NeRF: Robust Neural Radiance Field Reconstruction with Accurate Camera Pose Estimation under Complex Trajectories [21.97835451388508]
RA-NeRFは複雑なカメラ軌道であっても、高精度なカメラポーズを予測することができる。
RA-NeRFは、カメラポーズ推定と視覚的品質の両方において最先端の結果を達成する。
論文 参考訳(メタデータ) (2025-06-18T08:21:19Z) - FreeDriveRF: Monocular RGB Dynamic NeRF without Poses for Autonomous Driving via Point-Level Dynamic-Static Decoupling [13.495102292705253]
FreeDriveRFは、ポーズ入力を必要とせずにシーケンシャルなRGB画像のみを使用して動的駆動シーンを再構築する。
我々は、動的モデリングプロセスの制約を改善するために光学的流れを利用する、歪んだ光線誘導動的オブジェクトレンダリング整合性損失を導入する。
論文 参考訳(メタデータ) (2025-05-14T14:02:49Z) - Gear-NeRF: Free-Viewpoint Rendering and Tracking with Motion-aware Spatio-Temporal Sampling [70.34875558830241]
本研究では,シーンをレンダリングする動的領域の階層化モデリングを可能にする意味的セマンティックギアに基づく,時間的(4D)埋め込みの学習方法を提案する。
同時に、ほぼ無償で、当社のトラッキングアプローチは、既存のNeRFベースのメソッドでまだ達成されていない機能である、自由視点(free-view of interest)を可能にします。
論文 参考訳(メタデータ) (2024-06-06T03:37:39Z) - SMURF: Continuous Dynamics for Motion-Deblurring Radiance Fields [13.684805723485157]
シャッター露出が延長されたときにカメラの動きがわずかなため、動きのぼやけの存在は大きな課題となる。
本研究では,連続カメラの動作をモデル化する新しい手法SMURF(Sequence Motion Understanding Radiance Field)を提案する。
本モデルでは, ベンチマークデータを用いて評価を行い, 定量的かつ定性的に, 最先端の性能を示す。
論文 参考訳(メタデータ) (2024-03-12T11:32:57Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z) - DynaMoN: Motion-Aware Fast and Robust Camera Localization for Dynamic Neural Radiance Fields [71.94156412354054]
動的ニューラルラジアンス場(DynaMoN)の高速かつロバストなカメラ位置推定法を提案する。
DynaMoNは、初期のカメラポーズ推定と高速で正確なノベルビュー合成のための静的集光線サンプリングのために動的コンテンツを処理している。
我々は,TUM RGB-DデータセットとBONN RGB-D Dynamicデータセットの2つの実世界の動的データセットに対するアプローチを広く評価した。
論文 参考訳(メタデータ) (2023-09-16T08:46:59Z) - VMRF: View Matching Neural Radiance Fields [57.93631771072756]
VMRFは、カメラポーズやカメラポーズの分布に関する事前知識を必要とせずに、効果的なNeRFトレーニングを可能にする、革新的な視野マッチングNeRFである。
VMRFは、不均衡な最適輸送を利用するビューマッチングスキームを導入し、レンダリングされた画像をランダムにカメラのポーズで対応する実画像にマッピングする特徴輸送計画を生成する。
特徴伝達プランをガイダンスとして、レンダリング画像と実画像の相対的なポーズを予測することにより、初期ランダム化されたカメラポーズを補正する新しいポーズキャリブレーション手法を設計する。
論文 参考訳(メタデータ) (2022-07-06T12:26:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。