論文の概要: Neural LiDAR Fields for Novel View Synthesis
- arxiv url: http://arxiv.org/abs/2305.01643v2
- Date: Sun, 13 Aug 2023 09:25:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 20:00:24.502303
- Title: Neural LiDAR Fields for Novel View Synthesis
- Title(参考訳): 新しい視点合成のためのニューラルLiDAR場
- Authors: Shengyu Huang, Zan Gojcic, Zian Wang, Francis Williams, Yoni Kasten,
Sanja Fidler, Konrad Schindler, Or Litany
- Abstract要約: 本稿では,LiDAR計測からニューラルネットワークシーンの表現を最適化する手法であるLiDAR(NFL)について述べる。
NFLは、ニューラルネットワークのレンダリングパワーと、LiDARセンシングプロセスの詳細な物理的動機付けモデルを組み合わせる。
合成されたビューの改良されたリアリズムは、ドメインギャップを実際のスキャンに狭め、より良い登録とセマンティックセグメンテーション性能に変換することを示す。
- 参考スコア(独自算出の注目度): 80.45307792404685
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present Neural Fields for LiDAR (NFL), a method to optimise a neural field
scene representation from LiDAR measurements, with the goal of synthesizing
realistic LiDAR scans from novel viewpoints. NFL combines the rendering power
of neural fields with a detailed, physically motivated model of the LiDAR
sensing process, thus enabling it to accurately reproduce key sensor behaviors
like beam divergence, secondary returns, and ray dropping. We evaluate NFL on
synthetic and real LiDAR scans and show that it outperforms explicit
reconstruct-then-simulate methods as well as other NeRF-style methods on LiDAR
novel view synthesis task. Moreover, we show that the improved realism of the
synthesized views narrows the domain gap to real scans and translates to better
registration and semantic segmentation performance.
- Abstract(参考訳): 我々は,新しい視点から現実的なLiDARスキャンを合成することを目的とした,LiDAR計測からニューラルネットワークシーン表現を最適化する手法である,LiDARのためのニューラルフィールド(NFL)を提案する。
NFLは、ニューラルネットワークのレンダリングパワーとLiDARセンシングプロセスの詳細な物理的動機付けモデルを組み合わせることで、ビームの発散、二次リターン、レイドロップといったキーセンサーの動作を正確に再現することができる。
nfl を合成および実際のlidarスキャンで評価し, 明示的な再構成-then-simulate 法, および他の nerf 方式の lidar novel view 合成タスクよりも優れていることを示した。
さらに,合成ビューのリアリズムが向上することで,ドメイン間ギャップが実際のスキャンに狭まり,登録やセマンティクスセグメンテーションのパフォーマンスが向上することを示す。
関連論文リスト
- LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
LiDARシミュレーションは、自動運転におけるクローズドループシミュレーションにおいて重要な役割を果たす。
都市景観におけるLiDARセンサスキャンをリアルタイムに再現するために,最初のLiDARガウス法であるLiDAR-GSを提案する。
我々の手法は、深度、強度、レイドロップチャンネルを同時に再現することに成功し、公開可能な大規模シーンデータセットにおけるフレームレートと品質の両方のレンダリング結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - NeRF-Casting: Improved View-Dependent Appearance with Consistent Reflections [57.63028964831785]
最近の研究は、遠方の環境照明の詳細な明細な外観を描画するNeRFの能力を改善しているが、近い内容の一貫した反射を合成することはできない。
我々はこれらの問題をレイトレーシングに基づくアプローチで解決する。
このモデルでは、それぞれのカメラ線に沿った点における視界依存放射率を求めるために高価なニューラルネットワークをクエリする代わりに、これらの点から光を流し、NeRF表現を通して特徴ベクトルを描画します。
論文 参考訳(メタデータ) (2024-05-23T17:59:57Z) - LiDAR4D: Dynamic Neural Fields for Novel Space-time View LiDAR Synthesis [11.395101473757443]
我々は,新しい時空LiDARビュー合成のための微分可能なLiDAR専用フレームワークLiDAR4Dを提案する。
空間幅と大規模特性を考慮した4次元ハイブリッド表現を多平面・格子特徴と組み合わせて設計する。
LiDAR点雲の現実的な合成のために、領域横断パターンを保存するために、レイドロップ確率のグローバル最適化を取り入れる。
論文 参考訳(メタデータ) (2024-04-03T13:39:29Z) - Real-Aug: Realistic Scene Synthesis for LiDAR Augmentation in 3D Object
Detection [45.102312149413855]
生成したデータに対して最大制御性を提供する合成ベースLiDARデータ拡張手法(いわゆるGT-Aug)について検討する。
本稿では,現実的なLiDARスキャンの生成を優先する合成に基づく拡張手法であるReal-Augを提案する。
nuScenes テストセット上で, 最先端の 0.744 NDS と 0.702 mAP を達成する。
論文 参考訳(メタデータ) (2023-05-22T09:24:55Z) - LiDAR-NeRF: Novel LiDAR View Synthesis via Neural Radiance Fields [112.62936571539232]
本稿では,LiDARセンサのための新しいビュー合成手法を提案する。
スタイルトランスファーニューラルネットワークを用いた従来のモデルベースLiDARシミュレータは、新しいビューのレンダリングに応用できる。
ニューラル放射場(NeRF)を用いて幾何学と3D点の属性の連成学習を容易にする。
論文 参考訳(メタデータ) (2023-04-20T15:44:37Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Cascaded and Generalizable Neural Radiance Fields for Fast View
Synthesis [35.035125537722514]
ビュー合成のためのカスケードおよび一般化可能なニューラル放射場法であるCG-NeRFを提案する。
DTUデータセットの複数の3DシーンでCG-NeRFをトレーニングする。
CG-NeRFは、様々な合成および実データに対して、最先端の一般化可能なニューラルネットワークレンダリング手法より優れていることを示す。
論文 参考訳(メタデータ) (2022-08-09T12:23:48Z) - NeRF in detail: Learning to sample for view synthesis [104.75126790300735]
ニューラルレイディアンス場(NeRF)法は目覚ましい新しいビュー合成を実証している。
この作業では、バニラ粗大なアプローチの明確な制限に対処します -- パフォーマンスに基づいており、手元にあるタスクのエンドツーエンドをトレーニングしていません。
我々は、サンプルの提案と、そのネットワークにおける重要性を学習し、そのニューラルネットワークアーキテクチャに対する複数の代替案を検討し比較する、微分可能なモジュールを導入する。
論文 参考訳(メタデータ) (2021-06-09T17:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。