論文の概要: Real-time Neural Rendering of LiDAR Point Clouds
- arxiv url: http://arxiv.org/abs/2502.11618v1
- Date: Mon, 17 Feb 2025 10:01:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:09:12.073058
- Title: Real-time Neural Rendering of LiDAR Point Clouds
- Title(参考訳): LiDAR点雲のリアルタイムニューラルレンダリング
- Authors: Joni Vanherck, Brent Zoomers, Tom Mertens, Lode Jorissen, Nick Michiels,
- Abstract要約: 1x1ピクセルを用いた出力ビューへの点雲の単純投影は高速であり、利用可能な詳細を保持するが、背景点が前景画素間に漏れるにつれて、認識不能なレンダリングをもたらす。
U-Netの形での深い畳み込みモデルを用いて、これらの射影を現実的な結果に変換する。
また,不完全整合な地上真実画像を扱うための合成訓練データを生成する手法についても述べる。
- 参考スコア(独自算出の注目度): 0.2621434923709917
- License:
- Abstract: Static LiDAR scanners produce accurate, dense, colored point clouds, but often contain obtrusive artifacts which makes them ill-suited for direct display. We propose an efficient method to render photorealistic images of such scans without any expensive preprocessing or training of a scene-specific model. A naive projection of the point cloud to the output view using 1x1 pixels is fast and retains the available detail, but also results in unintelligible renderings as background points leak in between the foreground pixels. The key insight is that these projections can be transformed into a realistic result using a deep convolutional model in the form of a U-Net, and a depth-based heuristic that prefilters the data. The U-Net also handles LiDAR-specific problems such as missing parts due to occlusion, color inconsistencies and varying point densities. We also describe a method to generate synthetic training data to deal with imperfectly-aligned ground truth images. Our method achieves real-time rendering rates using an off-the-shelf GPU and outperforms the state-of-the-art in both speed and quality.
- Abstract(参考訳): 静的LiDARスキャナーは、正確で密度が高く、色のついた点の雲を生成するが、しばしば目に見える人工物を含んでいるため、直接表示するには不適当である。
本研究では,シーン固有のモデルの事前処理やトレーニングを行うことなく,このようなスキャンのフォトリアリスティック画像を効率よくレンダリングする手法を提案する。
1x1ピクセルを用いた出力ビューへの点雲の単純投影は高速であり、利用可能な詳細を保持するが、背景の点が前景の画素間に漏れるにつれて、認識不能なレンダリングをもたらす。
鍵となる洞察は、これらの投影は、U-Netの形で深い畳み込みモデルと、データをプリフィルターする深さに基づくヒューリスティックを使って、現実的な結果に変換することができることである。
U-Netは、隠蔽、色の不整合、点密度の変化など、LiDAR固有の問題にも対処している。
また,不完全整合な地上真実画像を扱うための合成訓練データを生成する手法についても述べる。
提案手法は,市販のGPUを用いてリアルタイムのレンダリング速度を実現し,速度と品質の両面で最先端の処理性能を向上する。
関連論文リスト
- EVER: Exact Volumetric Ellipsoid Rendering for Real-time View Synthesis [72.53316783628803]
実時間微分可能な発光専用ボリュームレンダリング法であるExact Volumetric Ellipsoid Rendering (EVER)を提案する。
3D Gaussian Splatting(3DGS)による最近の手法とは異なり、プリミティブベースの表現は正確なボリュームレンダリングを可能にする。
本手法は,3DGSよりもブレンディング問題の方が精度が高く,ビューレンダリングの追従作業も容易であることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:59:09Z) - Inverse Neural Rendering for Explainable Multi-Object Tracking [35.072142773300655]
我々はRGBカメラから3Dマルチオブジェクト追跡をEmphInverse Rendering (IR)問題として再放送した。
我々は、本質的に形状と外観特性を歪ませる生成潜在空間上の画像損失を最適化する。
本手法の一般化とスケーリング能力は,合成データのみから生成前を学習することで検証する。
論文 参考訳(メタデータ) (2024-04-18T17:37:53Z) - Multiscale Representation for Real-Time Anti-Aliasing Neural Rendering [84.37776381343662]
Mip-NeRFは、スケール情報をエンコードする円錐フラストラムとしてマルチスケール表現を提案する。
我々は,リアルタイムなアンチエイリアスレンダリングのためのマルチスケールな明示的表現であるmip voxel grids (Mip-VoG)を提案する。
私たちのアプローチは、マルチスケールのトレーニングとリアルタイムのアンチエイリアスレンダリングを同時に提供する最初の方法です。
論文 参考訳(メタデータ) (2023-04-20T04:05:22Z) - Point2Pix: Photo-Realistic Point Cloud Rendering via Neural Radiance
Fields [63.21420081888606]
最近の放射場と拡張法は、2次元入力から現実的な画像を合成するために提案されている。
我々は3次元スパース点雲と2次元高密度画像画素を結びつけるための新しい点としてPoint2Pixを提示する。
論文 参考訳(メタデータ) (2023-03-29T06:26:55Z) - Efficient Implicit Neural Reconstruction Using LiDAR [6.516471975863534]
本稿では, 微小なLiDAR点雲と粗度オドメトリーを用いて, 微小な暗黙的占有場を数分以内に効率的に再構築する手法を提案する。
我々の知る限り、この手法はLiDARのみの入力から暗黙のシーン表現を再構築する最初の方法である。
論文 参考訳(メタデータ) (2023-02-28T07:31:48Z) - When the Sun Goes Down: Repairing Photometric Losses for All-Day Depth
Estimation [47.617222712429026]
既存の測光損失を昼夜両方の画像に有効にするための3つの手法の組み合わせについて述べる。
まず、連続するフレーム間で起こる光の変化を補うために、ピクセルごとの神経強度変換を導入する。
第2に,推定エゴモーションと深度によって引き起こされる再投影対応を補正するために,画素ごとの残留フローマップを推定する。
論文 参考訳(メタデータ) (2022-06-28T09:29:55Z) - Generating Photo-realistic Images from LiDAR Point Clouds with
Generative Adversarial Networks [0.0]
我々は点雲画像ペアのデータセットを作成し、反射率と距離情報を含むLiDAR点雲から画像を予測するためにGANを訓練した。
私たちのモデルは、雲のデータから現実的に見えるイメージを予測する方法を学びました。
論文 参考訳(メタデータ) (2021-12-20T05:25:15Z) - RegNeRF: Regularizing Neural Radiance Fields for View Synthesis from
Sparse Inputs [79.00855490550367]
我々は,多くの入力ビューが利用可能である場合,NeRFは見えない視点のフォトリアリスティックレンダリングを生成することができることを示す。
我々は、未観測の視点からレンダリングされたパッチの幾何学と外観を規則化することで、この問題に対処する。
我々のモデルは、1つのシーンで最適化する他の方法よりも、大規模なマルチビューデータセットで広範囲に事前訓練された条件付きモデルよりも優れています。
論文 参考訳(メタデータ) (2021-12-01T18:59:46Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。