論文の概要: A Probabilistic Formulation of LiDAR Mapping with Neural Radiance Fields
- arxiv url: http://arxiv.org/abs/2411.01725v1
- Date: Mon, 04 Nov 2024 00:49:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:46:14.820110
- Title: A Probabilistic Formulation of LiDAR Mapping with Neural Radiance Fields
- Title(参考訳): ニューラルネットワークを用いたLiDARマッピングの確率論的定式化
- Authors: Matthew McDermott, Jason Rife,
- Abstract要約: シーンの新たなLiDARビューを生成するために、ニューラルレージアンスフィールドをどのように訓練できるかを示す。
損失を確率の積分として定式化することにより、ネットワークは与えられた光線の複数のピークを学習できることを示す。
- 参考スコア(独自算出の注目度): 0.7366405857677227
- License:
- Abstract: In this paper we reexamine the process through which a Neural Radiance Field (NeRF) can be trained to produce novel LiDAR views of a scene. Unlike image applications where camera pixels integrate light over time, LiDAR pulses arrive at specific times. As such, multiple LiDAR returns are possible for any given detector and the classification of these returns is inherently probabilistic. Applying a traditional NeRF training routine can result in the network learning phantom surfaces in free space between conflicting range measurements, similar to how floater aberrations may be produced by an image model. We show that by formulating loss as an integral of probability (rather than as an integral of optical density) the network can learn multiple peaks for a given ray, allowing the sampling of first, nth, or strongest returns from a single output channel. Code is available at https://github.com/mcdermatt/PLINK
- Abstract(参考訳): 本稿では,ニューラル・ラジアンス・フィールド(NeRF)をトレーニングして,シーンの新たなLiDARビューを生成するプロセスを再検討する。
カメラピクセルが光を時間とともに統合する画像アプリケーションとは異なり、LiDARパルスは特定の時刻に届く。
したがって、任意の検出器に対して複数のLiDARリターンが可能であり、これらのリターンの分類は本質的に確率的である。
従来のNeRFトレーニングルーチンを適用すると、画像モデルによって浮動小数点収差が生成されるのと同じように、競合範囲の測定の間の自由空間におけるネットワーク学習ファントムサーフェスが得られる。
損失を(光学密度の積分としてではなく)確率の積分として定式化することにより、ネットワークは与えられた光線の複数のピークを学習でき、単一の出力チャネルから第1、第n、または最強のリターンをサンプリングできることを示す。
コードはhttps://github.com/mcdermatt/PLINKで入手できる。
関連論文リスト
- Radiative Gaussian Splatting for Efficient X-ray Novel View Synthesis [88.86777314004044]
我々は,X線ノベルビュー可視化のための3次元ガウシアンスプラッティングに基づくフレームワーク,すなわちX-ガウシアンを提案する。
実験の結果,X-Gaussianは6.5dBの最先端手法より優れており,トレーニング時間は15%未満であり,推論速度は73倍であることがわかった。
論文 参考訳(メタデータ) (2024-03-07T00:12:08Z) - Semantic Ray: Learning a Generalizable Semantic Field with
Cross-Reprojection Attention [18.512876541741726]
我々は,正確で効率的で一般化可能な複数のシーンから意味的放射場を学習することを目指している。
本稿では,その多視点再計画から線方向のセマンティック情報を完全に活用するセマンティック・レイを提案する。
実験により、S線は複数のシーンから学習できることが示され、見えないシーンに適応する強力な一般化能力を示す。
論文 参考訳(メタデータ) (2023-03-23T03:33:20Z) - Sionna RT: Differentiable Ray Tracing for Radio Propagation Modeling [65.17711407805756]
Sionnaは、リンクレベルのシミュレーションをベースとしたGPUアクセラレーションのオープンソースライブラリである。
リリース v0.14 以降、電波伝搬のシミュレーションのために微分可能なレイトレーサ (RT) を統合している。
論文 参考訳(メタデータ) (2023-03-20T13:40:11Z) - Re-ReND: Real-time Rendering of NeRFs across Devices [56.081995086924216]
Re-ReNDは、NeRFを標準グラフィックスパイプラインで効率的に処理できる表現に変換することで、リアルタイムのパフォーマンスを実現するように設計されている。
Re-ReNDはレンダリング速度が2.6倍に向上し、最先端技術では品質が損なわれることなく達成できることがわかった。
論文 参考訳(メタデータ) (2023-03-15T15:59:41Z) - Differentiable Rendering with Reparameterized Volume Sampling [2.717399369766309]
ビュー合成において、ニューラルネットワークは、シーン画像のスパースセットに基づいて、基礎となる密度と放射場を近似する。
このレンダリングアルゴリズムは、完全に微分可能であり、フィールドの勾配に基づく最適化を容易にする。
逆変換サンプリングに基づく単純なエンドツーエンドの微分可能サンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-21T19:56:50Z) - R2L: Distilling Neural Radiance Field to Neural Light Field for
Efficient Novel View Synthesis [76.07010495581535]
一つのピクセルをレンダリングするには、数百回もNeural Radiance Fieldネットワークに問い合わせる必要がある。
NeLFは、新しい視点において、NeRFに対してより直接的な表現を提示する。
ディープNeLFネットワークをうまく学習する鍵は、十分なデータを持つことである。
論文 参考訳(メタデータ) (2022-03-31T17:57:05Z) - DDNeRF: Depth Distribution Neural Radiance Fields [12.283891012446647]
DDNeRF(Deep Distribution Neural Radiance Field)は、トレーニング中の放射線のサンプリング効率を大幅に向上させる新しい手法である。
粗いモデルを用いて、入力体積の透過性の内部分布を予測し、体積の総密度を推定する。
このより詳細な分布は、ファインモデルのサンプリング手順を導出する。
論文 参考訳(メタデータ) (2022-03-30T19:21:07Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - NeRF in detail: Learning to sample for view synthesis [104.75126790300735]
ニューラルレイディアンス場(NeRF)法は目覚ましい新しいビュー合成を実証している。
この作業では、バニラ粗大なアプローチの明確な制限に対処します -- パフォーマンスに基づいており、手元にあるタスクのエンドツーエンドをトレーニングしていません。
我々は、サンプルの提案と、そのネットワークにおける重要性を学習し、そのニューラルネットワークアーキテクチャに対する複数の代替案を検討し比較する、微分可能なモジュールを導入する。
論文 参考訳(メタデータ) (2021-06-09T17:59:10Z) - DONeRF: Towards Real-Time Rendering of Neural Radiance Fields using
Depth Oracle Networks [6.2444658061424665]
DONeRFは、深度オラクルネットワークを第1ステップとし、局所サンプルシェーディングネットワークを光線蓄積用に設計した二重ネットワークである。
我々は1つのGPU上で、レイマーチベースのニューラル表現をインタラクティブなフレームレート(毎秒15フレーム、800x800)でレンダリングした最初の人です。
論文 参考訳(メタデータ) (2021-03-04T18:55:09Z) - FrequentNet: A Novel Interpretable Deep Learning Model for Image
Classification [1.7205106391379026]
本稿では,画像分類の利点を活かした新しいベースライン深層学習モデルを提案する。
PCANet: A Simple Deep Learning Baseline for Image Classification?
論文 参考訳(メタデータ) (2020-01-04T04:31:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。