論文の概要: Dynamic LiDAR Re-simulation using Compositional Neural Fields
- arxiv url: http://arxiv.org/abs/2312.05247v1
- Date: Fri, 8 Dec 2023 18:55:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 14:15:05.107959
- Title: Dynamic LiDAR Re-simulation using Compositional Neural Fields
- Title(参考訳): 合成ニューラルネットワークを用いた動的LiDAR再シミュレーション
- Authors: Hanfeng Wu, Xingxing Zuo, Stefan Leutenegger, Or Litany, Konrad
Schindler, Shengyu Huang
- Abstract要約: 我々は、動的駆動シーンにおけるLiDARスキャンの高忠実度再シミュレーションのための新しいニューラルネットワークベースのアプローチであるDyNFLを紹介する。
合成環境と実環境環境の両方で評価した結果,LiDARスキャンによる動的シーンシミュレーションが大幅に改善された。
- 参考スコア(独自算出の注目度): 39.958062222135986
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce DyNFL, a novel neural field-based approach for high-fidelity
re-simulation of LiDAR scans in dynamic driving scenes. DyNFL processes LiDAR
measurements from dynamic environments, accompanied by bounding boxes of moving
objects, to construct an editable neural field. This field, comprising
separately reconstructed static backgrounds and dynamic objects, allows users
to modify viewpoints, adjust object positions, and seamlessly add or remove
objects in the re-simulated scene. A key innovation of our method is the neural
field composition technique, which effectively integrates reconstructed neural
assets from various scenes through a ray drop test, accounting for occlusions
and transparent surfaces. Our evaluation with both synthetic and real-world
environments demonstrates that \ShortName substantial improves dynamic scene
simulation based on LiDAR scans, offering a combination of physical fidelity
and flexible editing capabilities.
- Abstract(参考訳): dynflは,動的運転シーンにおけるライダースキャンの高忠実度再シミュレーションのための,新しいニューラルフィールドに基づくアプローチである。
DyNFLは、移動物体の境界ボックスを伴う動的環境からのLiDAR測定を処理し、編集可能なニューラルネットワークを構築する。
このフィールドは、個別に再構成された静的背景と動的オブジェクトで構成されており、ユーザーは視点を変更し、オブジェクトの位置を調整し、再シミュレーションされたシーンでオブジェクトをシームレスに追加または削除することができる。
この手法の重要なイノベーションは、様々なシーンから再構成された神経資産をレイドロップテストを通じて効果的に統合し、閉塞や透明な表面を考慮できるニューラルフィールド合成技術である。
合成環境と実環境環境の両方で評価したところ, \ShortNameはLiDARスキャンに基づく動的シーンシミュレーションを大幅に改善し, 物理的忠実度とフレキシブルな編集機能の組み合わせを提供することがわかった。
関連論文リスト
- Neural Material Adaptor for Visual Grounding of Intrinsic Dynamics [48.99021224773799]
本稿では,既存の物理法則を学習的補正と統合するニューラルネットワーク (NeuMA) を提案する。
また,粒子駆動型3次元ガウス平滑化モデルであるParticle-GSを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:43:36Z) - Learn to Memorize and to Forget: A Continual Learning Perspective of Dynamic SLAM [17.661231232206028]
暗黙的な神経表現を伴う同時局所化とマッピング(SLAM)が注目されている。
動的環境のための新しいSLAMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-18T09:35:48Z) - Simultaneous Map and Object Reconstruction [66.66729715211642]
本稿では,LiDARから大規模都市景観を動的に再現する手法を提案する。
我々は、最近の新しいビュー合成法から着想を得て、大域的な最適化として再構築問題を提起する。
連続動作の慎重なモデリングにより, 回転するLiDARセンサの回転シャッター効果を補うことができる。
論文 参考訳(メタデータ) (2024-06-19T23:53:31Z) - Gear-NeRF: Free-Viewpoint Rendering and Tracking with Motion-aware Spatio-Temporal Sampling [70.34875558830241]
本研究では,シーンをレンダリングする動的領域の階層化モデリングを可能にする意味的セマンティックギアに基づく,時間的(4D)埋め込みの学習方法を提案する。
同時に、ほぼ無償で、当社のトラッキングアプローチは、既存のNeRFベースのメソッドでまだ達成されていない機能である、自由視点(free-view of interest)を可能にします。
論文 参考訳(メタデータ) (2024-06-06T03:37:39Z) - ASSIST: Interactive Scene Nodes for Scalable and Realistic Indoor
Simulation [17.34617771579733]
本稿では、合成および現実的なシミュレーションのためのパノプティクス表現として、オブジェクト指向神経放射場であるASSISTを提案する。
各オブジェクトの情報を統一的に格納する新しいシーンノードデータ構造は、イントラシーンとクロスシーンの両方でオンラインインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-11-10T17:56:43Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z) - Dyn-E: Local Appearance Editing of Dynamic Neural Radiance Fields [43.28899303348589]
トレーニングビデオの1フレームに画素を操作することにより,ダイナミックNeRFの局所的な外観を編集する新しいフレームワークを提案する。
この手法を用いることで、専門知識のないユーザは、ダイナミックなシーンの外観に望ましいコンテンツを容易に追加できる。
論文 参考訳(メタデータ) (2023-07-24T16:08:32Z) - Neural LiDAR Fields for Novel View Synthesis [80.45307792404685]
本稿では,LiDAR計測からニューラルネットワークシーンの表現を最適化する手法であるLiDAR(NFL)について述べる。
NFLは、ニューラルネットワークのレンダリングパワーと、LiDARセンシングプロセスの詳細な物理的動機付けモデルを組み合わせる。
合成されたビューの改良されたリアリズムは、ドメインギャップを実際のスキャンに狭め、より良い登録とセマンティックセグメンテーション性能に変換することを示す。
論文 参考訳(メタデータ) (2023-05-02T17:55:38Z) - STaR: Self-supervised Tracking and Reconstruction of Rigid Objects in
Motion with Neural Rendering [9.600908665766465]
本稿では,マルチビューRGB動画のリジッドモーションによる動的シーンの自己監視追跡と再構成を,手動アノテーションなしで行う新しい手法であるSTaRについて述べる。
本手法は,空間軸と時間軸の両方で新規性を測定するフォトリアリスティック・ノベルビューを描画できることを示した。
論文 参考訳(メタデータ) (2020-12-22T23:45:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。