論文の概要: Dynamic LiDAR Re-simulation using Compositional Neural Fields
- arxiv url: http://arxiv.org/abs/2312.05247v2
- Date: Wed, 3 Apr 2024 15:40:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 22:37:19.228666
- Title: Dynamic LiDAR Re-simulation using Compositional Neural Fields
- Title(参考訳): 合成ニューラルネットワークを用いた動的LiDAR再シミュレーション
- Authors: Hanfeng Wu, Xingxing Zuo, Stefan Leutenegger, Or Litany, Konrad Schindler, Shengyu Huang,
- Abstract要約: 我々は、動的駆動シーンにおけるLiDARスキャンの高忠実度再シミュレーションのための新しいニューラルネットワークベースのアプローチであるDyNFLを紹介する。
合成環境と実環境環境の両方で評価した結果,DyNFLは動的シーンLiDARシミュレーションを大幅に改善することが示された。
- 参考スコア(独自算出の注目度): 37.70995243573438
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce DyNFL, a novel neural field-based approach for high-fidelity re-simulation of LiDAR scans in dynamic driving scenes. DyNFL processes LiDAR measurements from dynamic environments, accompanied by bounding boxes of moving objects, to construct an editable neural field. This field, comprising separately reconstructed static background and dynamic objects, allows users to modify viewpoints, adjust object positions, and seamlessly add or remove objects in the re-simulated scene. A key innovation of our method is the neural field composition technique, which effectively integrates reconstructed neural assets from various scenes through a ray drop test, accounting for occlusions and transparent surfaces. Our evaluation with both synthetic and real-world environments demonstrates that DyNFL substantially improves dynamic scene LiDAR simulation, offering a combination of physical fidelity and flexible editing capabilities.
- Abstract(参考訳): 我々は、動的駆動シーンにおけるLiDARスキャンの高忠実度再シミュレーションのための新しいニューラルネットワークベースのアプローチであるDyNFLを紹介する。
DyNFLは、移動物体のバウンディングボックスを伴う動的環境からのLiDAR測定を処理し、編集可能なニューラルフィールドを構築する。
このフィールドは、別々に再構成された静的な背景と動的オブジェクトから構成されており、ユーザーは視点を変更したり、オブジェクトの位置を調整したり、再現されたシーンでオブジェクトをシームレスに追加したり削除したりすることができる。
この手法の重要な革新は、様々なシーンから再構成されたニューラルネットワークをレイドロップテストを通じて効果的に統合し、オクルージョンと透明な表面を考慮に入れた、ニューラルネットワーク合成技術である。
実環境と実環境の両方で評価した結果,DyNFLは動的シーンのLiDARシミュレーションを大幅に改善し,物理的忠実度とフレキシブルな編集機能の組み合わせを提供することがわかった。
関連論文リスト
- NID-SLAM: Neural Implicit Representation-based RGB-D SLAM in dynamic
environments [10.413523346264055]
動的環境におけるニューラルSLAMの性能を大幅に向上させるNID-SLAMを提案する。
本稿では, セマンティックマスクにおける不正確な領域, 特に辺縁領域における不正確な領域を強化するための新しいアプローチを提案する。
また,ダイナミックシーンの選択戦略を導入し,大規模オブジェクトに対するカメラトラッキングの堅牢性を高める。
論文 参考訳(メタデータ) (2024-01-02T12:35:03Z) - ASSIST: Interactive Scene Nodes for Scalable and Realistic Indoor
Simulation [17.34617771579733]
本稿では、合成および現実的なシミュレーションのためのパノプティクス表現として、オブジェクト指向神経放射場であるASSISTを提案する。
各オブジェクトの情報を統一的に格納する新しいシーンノードデータ構造は、イントラシーンとクロスシーンの両方でオンラインインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-11-10T17:56:43Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z) - Dynamic Mesh-Aware Radiance Fields [75.59025151369308]
本稿では,メッシュとNeRFの双方向結合をレンダリングおよびシミュレーション時に設計する。
ハイブリッドシステムはメッシュ挿入のための視覚リアリズムの代替よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-09-08T20:18:18Z) - Dyn-E: Local Appearance Editing of Dynamic Neural Radiance Fields [43.28899303348589]
トレーニングビデオの1フレームに画素を操作することにより,ダイナミックNeRFの局所的な外観を編集する新しいフレームワークを提案する。
この手法を用いることで、専門知識のないユーザは、ダイナミックなシーンの外観に望ましいコンテンツを容易に追加できる。
論文 参考訳(メタデータ) (2023-07-24T16:08:32Z) - Neural LiDAR Fields for Novel View Synthesis [80.45307792404685]
本稿では,LiDAR計測からニューラルネットワークシーンの表現を最適化する手法であるLiDAR(NFL)について述べる。
NFLは、ニューラルネットワークのレンダリングパワーと、LiDARセンシングプロセスの詳細な物理的動機付けモデルを組み合わせる。
合成されたビューの改良されたリアリズムは、ドメインギャップを実際のスキャンに狭め、より良い登録とセマンティックセグメンテーション性能に変換することを示す。
論文 参考訳(メタデータ) (2023-05-02T17:55:38Z) - Neural Fields meet Explicit Geometric Representation for Inverse
Rendering of Urban Scenes [62.769186261245416]
本稿では,大都市におけるシーン形状,空間変化材料,HDR照明を,任意の深さで描画したRGB画像の集合から共同で再構成できる新しい逆レンダリングフレームワークを提案する。
具体的には、第1の光線を考慮に入れ、第2の光線をモデリングするために、明示的なメッシュ(基礎となるニューラルネットワークから再構成)を用いて、キャストシャドウのような高次照明効果を発生させる。
論文 参考訳(メタデータ) (2023-04-06T17:51:54Z) - DynIBaR: Neural Dynamic Image-Based Rendering [79.44655794967741]
複雑な動的シーンを描写したモノクロ映像から新しいビューを合成する問題に対処する。
我々は,近傍のビューから特徴を集約することで,新しい視点を合成するボリューム画像ベースのレンダリングフレームワークを採用する。
動的シーンデータセットにおける最先端手法の大幅な改善を示す。
論文 参考訳(メタデータ) (2022-11-20T20:57:02Z) - Editable Free-viewpoint Video Using a Layered Neural Representation [35.44420164057911]
我々は,スパース16カメラのみを用いた大規模ダイナミックシーンの編集可能な自由視点映像生成のための最初のアプローチを提案する。
私たちのアプローチの核心は、環境そのものを含む各動的エンティティがST-NeRFと呼ばれる時空コヒーレントな神経層放射線表現に定式化される新しい階層化された神経表現です。
実験は,ダイナミックシーンにおける高品質,フォトリアリスティック,編集可能な自由視点映像生成を実現するための手法の有効性を示す。
論文 参考訳(メタデータ) (2021-04-30T06:50:45Z) - STaR: Self-supervised Tracking and Reconstruction of Rigid Objects in
Motion with Neural Rendering [9.600908665766465]
本稿では,マルチビューRGB動画のリジッドモーションによる動的シーンの自己監視追跡と再構成を,手動アノテーションなしで行う新しい手法であるSTaRについて述べる。
本手法は,空間軸と時間軸の両方で新規性を測定するフォトリアリスティック・ノベルビューを描画できることを示した。
論文 参考訳(メタデータ) (2020-12-22T23:45:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。