論文の概要: Toward Physics-Aware Deep Learning Architectures for LiDAR Intensity Simulation
- arxiv url: http://arxiv.org/abs/2404.15774v1
- Date: Wed, 24 Apr 2024 09:52:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 19:30:27.603620
- Title: Toward Physics-Aware Deep Learning Architectures for LiDAR Intensity Simulation
- Title(参考訳): LiDARインテンシティシミュレーションのための物理対応ディープラーニングアーキテクチャに向けて
- Authors: Vivek Anand, Bharat Lohani, Gaurav Pandey, Rakesh Mishra,
- Abstract要約: LiDAR強度は、反射レーザー信号に関する貴重な情報を提供する。
LiDARの強度を正確にシミュレーションすることは、環境中の物体の材料特性が利用できないため、依然として課題である。
U-NET a Conversaal Neural Network (CNN) と Pix2Pix a Generative Adrial Network (GAN) の2つの著名なディープラーニングアーキテクチャの比較研究を行った。
- 参考スコア(独自算出の注目度): 4.187687891358182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous vehicles (AVs) heavily rely on LiDAR perception for environment understanding and navigation. LiDAR intensity provides valuable information about the reflected laser signals and plays a crucial role in enhancing the perception capabilities of AVs. However, accurately simulating LiDAR intensity remains a challenge due to the unavailability of material properties of the objects in the environment, and complex interactions between the laser beam and the environment. The proposed method aims to improve the accuracy of intensity simulation by incorporating physics-based modalities within the deep learning framework. One of the key entities that captures the interaction between the laser beam and the objects is the angle of incidence. In this work we demonstrate that the addition of the LiDAR incidence angle as a separate input to the deep neural networks significantly enhances the results. We present a comparative study between two prominent deep learning architectures: U-NET a Convolutional Neural Network (CNN), and Pix2Pix a Generative Adversarial Network (GAN). We implemented these two architectures for the intensity prediction task and used SemanticKITTI and VoxelScape datasets for experiments. The comparative analysis reveals that both architectures benefit from the incidence angle as an additional input. Moreover, the Pix2Pix architecture outperforms U-NET, especially when the incidence angle is incorporated.
- Abstract(参考訳): 自動運転車(AV)は環境の理解とナビゲーションにLiDARの認識に大きく依存している。
LiDAR強度は反射レーザー信号に関する貴重な情報を提供し、AVの知覚能力を高める上で重要な役割を果たす。
しかし、LiDARの強度を正確にシミュレーションすることは、環境中の物体の材料特性が利用できないことや、レーザービームと環境の間の複雑な相互作用のため、依然として課題である。
提案手法は,深層学習フレームワークに物理に基づくモーダルティを組み込むことで,強度シミュレーションの精度を向上させることを目的とする。
レーザービームと物体の間の相互作用を捉える重要な要素の1つは、入射角である。
本研究は,深部ニューラルネットワークへの個別入力としてLiDAR入射角を追加することにより,結果を著しく向上させることを示した。
U-NET a Convolutional Neural Network (CNN) と Pix2Pix a Generative Adversarial Network (GAN) の2つの著名なディープラーニングアーキテクチャの比較研究を行った。
この2つのアーキテクチャを強度予測タスクに実装し,実験にSemanticKITTIとVoxelScapeデータセットを使用した。
比較分析により、どちらのアーキテクチャも追加入力として入射角から恩恵を受けることが明らかとなった。
さらにPix2Pixアーキテクチャは、特に入射角が組み込まれた場合、U-NETより優れている。
関連論文リスト
- EMWaveNet: Physically Explainable Neural Network Based on Microwave Propagation for SAR Target Recognition [4.251056028888424]
本研究では,複雑なSAR画像認識のための物理的に説明可能なフレームワークを提案する。
ネットワークアーキテクチャは完全にパラメータ化され、全ての学習可能なパラメータには明確な物理的意味があり、計算プロセスは完全に周波数領域で完了する。
提案手法は, 高い物理的論理, 高い物理的説明性, 堅牢性, および優れた処理能力を有することを示した。
論文 参考訳(メタデータ) (2024-10-13T07:04:49Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
LiDARシミュレーションは、自動運転におけるクローズドループシミュレーションにおいて重要な役割を果たす。
都市景観におけるLiDARセンサスキャンをリアルタイムに再現するために,最初のLiDARガウス法であるLiDAR-GSを提案する。
我々の手法は、深度、強度、レイドロップチャンネルを同時に再現することに成功し、公開可能な大規模シーンデータセットにおけるフレームレートと品質の両方のレンダリング結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Scale-Translation Equivariant Network for Oceanic Internal Solitary Wave Localization [7.444865250744234]
内部孤立波(英:internal Solitary wave、ISW)は、内部の海洋でしばしば観測される重力波である。
光リモートセンシング画像における雲のカバーは、地表面の情報を可変的に曖昧にし、ぼやけたり、表面の観察を欠いたりする。
本稿では,ISWを自動検出するアルゴリズムを用いた機械学習ソリューションを提案する。
論文 参考訳(メタデータ) (2024-06-18T21:09:56Z) - Point-aware Interaction and CNN-induced Refinement Network for RGB-D
Salient Object Detection [95.84616822805664]
我々は,CNNによるトランスフォーマーアーキテクチャを導入し,ポイント・アウェア・インタラクションとCNNによるリファインメントを備えた新しいRGB-D SODネットワークを提案する。
トランスフォーマーがもたらすブロック効果とディテール破壊問題を自然に軽減するために,コンテンツリファインメントとサプリメントのためのCNNRユニットを設計する。
論文 参考訳(メタデータ) (2023-08-17T11:57:49Z) - LiDAR-NeRF: Novel LiDAR View Synthesis via Neural Radiance Fields [112.62936571539232]
本稿では,LiDARセンサのための新しいビュー合成手法を提案する。
スタイルトランスファーニューラルネットワークを用いた従来のモデルベースLiDARシミュレータは、新しいビューのレンダリングに応用できる。
ニューラル放射場(NeRF)を用いて幾何学と3D点の属性の連成学習を容易にする。
論文 参考訳(メタデータ) (2023-04-20T15:44:37Z) - Lightweight Monocular Depth Estimation with an Edge Guided Network [34.03711454383413]
本稿では,新しいエッジガイド深度推定ネットワーク(EGD-Net)を提案する。
特に、軽量なエンコーダデコーダアーキテクチャから始め、エッジガイダンスブランチを組み込む。
コンテクスト情報とエッジアテンション特徴を集約するために,トランスフォーマーをベースとした機能アグリゲーションモジュールを設計する。
論文 参考訳(メタデータ) (2022-09-29T14:45:47Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Learning Deep Context-Sensitive Decomposition for Low-Light Image
Enhancement [58.72667941107544]
典型的なフレームワークは、照明と反射を同時に推定することであるが、特徴空間にカプセル化されたシーンレベルの文脈情報を無視する。
本研究では,空間スケールにおけるシーンレベルのコンテキスト依存を生かした,コンテキスト依存型分解ネットワークアーキテクチャを提案する。
チャネル数を減らして軽量なCSDNet(LiteCSDNet)を開発する。
論文 参考訳(メタデータ) (2021-12-09T06:25:30Z) - RRNet: Relational Reasoning Network with Parallel Multi-scale Attention
for Salient Object Detection in Optical Remote Sensing Images [82.1679766706423]
光リモートセンシング画像(RSI)のためのSODは、光学RSIから視覚的に特徴的な物体や領域を探索・抽出することを目的としている。
光学RSIにおけるSODに並列なマルチスケールアテンションを持つリレーショナル推論ネットワークを提案する。
提案するRRNetは,既存の最先端SODコンペティタよりも質的,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-27T07:18:32Z) - On Deep Learning Techniques to Boost Monocular Depth Estimation for
Autonomous Navigation [1.9007546108571112]
画像の深さを推定することはコンピュータビジョンの分野における根本的な逆問題である。
本稿では,新しい特徴抽出モデルと組み合わせ,軽量で高速なCNNアーキテクチャを提案する。
また,SIDE問題を解くために,単純な幾何2.5D損失関数と組み合わせて効率的な表面正規化モジュールを導入する。
論文 参考訳(メタデータ) (2020-10-13T18:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。