論文の概要: DynaMoN: Motion-Aware Fast And Robust Camera Localization for Dynamic
NeRF
- arxiv url: http://arxiv.org/abs/2309.08927v1
- Date: Sat, 16 Sep 2023 08:46:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 18:32:29.019730
- Title: DynaMoN: Motion-Aware Fast And Robust Camera Localization for Dynamic
NeRF
- Title(参考訳): DynaMoN:ダイナミックNeRFのための高速でロバストなカメラローカライゼーション
- Authors: Mert Asim Karaoglu, Hannah Schieber, Nicolas Schischka, Melih
G\"org\"ul\"u, Florian Gr\"otzner, Alexander Ladikos, Daniel Roth, Nassir
Navab, Benjamin Busam
- Abstract要約: 本研究では,動的なシーンコンテンツを扱うために,モーションマスキングと同時位置決めマッピング(SLAM)を併用したDynaMoNを提案する。
我々の堅牢なSLAMベースのトラッキングモジュールは、動的NeRFのトレーニングプロセスを著しく加速し、同時に合成されたビューの品質を向上させる。
- 参考スコア(独自算出の注目度): 74.33528897005999
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dynamic reconstruction with neural radiance fields (NeRF) requires accurate
camera poses. These are often hard to retrieve with existing
structure-from-motion (SfM) pipelines as both camera and scene content can
change. We propose DynaMoN that leverages simultaneous localization and mapping
(SLAM) jointly with motion masking to handle dynamic scene content. Our robust
SLAM-based tracking module significantly accelerates the training process of
the dynamic NeRF while improving the quality of synthesized views at the same
time. Extensive experimental validation on TUM RGB-D, BONN RGB-D Dynamic and
the DyCheck's iPhone dataset, three real-world datasets, shows the advantages
of DynaMoN both for camera pose estimation and novel view synthesis.
- Abstract(参考訳): ニューラルレイディアンスフィールド(NeRF)を用いた動的再構成には正確なカメラポーズが必要である。
これらは、カメラとシーンの内容が変更される可能性があるため、既存のStructure-from-motion (SfM)パイプラインで取得することがしばしば困難である。
本研究では,動的なシーンコンテンツを扱うために,モーションマスキングと共同でSLAMを利用するDynaMoNを提案する。
我々のSLAMベースの追跡モジュールは、動的NeRFのトレーニングプロセスを著しく加速し、同時に合成されたビューの品質を向上させる。
TUM RGB-D、BONN RGB-D Dynamic、およびDyCheckのiPhoneデータセットの3つの実世界のデータセットに対する大規模な実験的検証は、カメラポーズ推定と新しいビュー合成の両方にDynaMoNの利点を示している。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - SMURF: Continuous Dynamics for Motion-Deblurring Radiance Fields [14.681688453270523]
本稿では,ニューラル常微分方程式(Neural-ODE)を用いて連続カメラの動きをモデル化する新しい手法である,逐次的動き理解放射場(SMURF)を提案する。
我々のモデルは、ベンチマークデータセットに対して厳密に評価され、定量的かつ定性的に最先端のパフォーマンスを実証する。
論文 参考訳(メタデータ) (2024-03-12T11:32:57Z) - NID-SLAM: Neural Implicit Representation-based RGB-D SLAM in dynamic environments [9.706447888754614]
動的環境におけるニューラルSLAMの性能を大幅に向上させるNID-SLAMを提案する。
本稿では, セマンティックマスクにおける不正確な領域, 特に辺縁領域における不正確な領域を強化するための新しいアプローチを提案する。
また,ダイナミックシーンの選択戦略を導入し,大規模オブジェクトに対するカメラトラッキングの堅牢性を高める。
論文 参考訳(メタデータ) (2024-01-02T12:35:03Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z) - Alignment-free HDR Deghosting with Semantics Consistent Transformer [76.91669741684173]
高ダイナミックレンジイメージングは、複数の低ダイナミックレンジ入力から情報を取得し、リアルな出力を生成することを目的としている。
既存の手法では、前景やカメラの動きによって引き起こされる入力フレーム間の空間的ずれに焦点を当てることが多い。
本研究では,SCTNet(Semantics Consistent Transformer)を用いたアライメントフリーネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:03:23Z) - Robust Dynamic Radiance Fields [79.43526586134163]
動的放射場再構成法は動的シーンの時間変化構造と外観をモデル化することを目的としている。
しかし、既存の手法では、正確なカメラポーズをStructure from Motion (SfM)アルゴリズムによって確実に推定できると仮定している。
カメラパラメータとともに静的および動的放射場を共同で推定することにより、このロバスト性問題に対処する。
論文 参考訳(メタデータ) (2023-01-05T18:59:51Z) - Neural Surface Reconstruction of Dynamic Scenes with Monocular RGB-D
Camera [26.410460029742456]
モノクラーRGB-Dカメラから動的シーンの高忠実度形状と動きを復元するテンプレートレス手法を提案する。
公開データセットと収集データセットの実験により、NDRは既存の単分子動的再構成法より優れていることが示された。
論文 参考訳(メタデータ) (2022-06-30T13:09:39Z) - Learning Dynamic View Synthesis With Few RGBD Cameras [60.36357774688289]
本稿では,RGBDカメラを用いて動的屋内シーンのフリー視点映像を合成することを提案する。
我々は、RGBDフレームから点雲を生成し、それをニューラル機能を介して、自由視点ビデオにレンダリングする。
そこで本研究では,未完成の深度を適応的に塗布して新規なビューを描画する,シンプルなRegional Depth-Inpaintingモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-22T03:17:35Z) - FlowFusion: Dynamic Dense RGB-D SLAM Based on Optical Flow [17.040818114071833]
ダイナミック/静的セグメンテーションとカメラのエゴモーション推定を同時に実現する新しいRGB-D SLAMソリューションを提案する。
我々の新しい特徴は、RGB-D点雲のダイナミックセマンティクスを強調するために光学フロー残基を使うことである。
論文 参考訳(メタデータ) (2020-03-11T04:00:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。