論文の概要: Toward Physics-Aware Deep Learning Architectures for LiDAR Intensity Simulation
- arxiv url: http://arxiv.org/abs/2404.15774v1
- Date: Wed, 24 Apr 2024 09:52:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 19:30:27.603620
- Title: Toward Physics-Aware Deep Learning Architectures for LiDAR Intensity Simulation
- Title(参考訳): LiDARインテンシティシミュレーションのための物理対応ディープラーニングアーキテクチャに向けて
- Authors: Vivek Anand, Bharat Lohani, Gaurav Pandey, Rakesh Mishra,
- Abstract要約: LiDAR強度は、反射レーザー信号に関する貴重な情報を提供する。
LiDARの強度を正確にシミュレーションすることは、環境中の物体の材料特性が利用できないため、依然として課題である。
U-NET a Conversaal Neural Network (CNN) と Pix2Pix a Generative Adrial Network (GAN) の2つの著名なディープラーニングアーキテクチャの比較研究を行った。
- 参考スコア(独自算出の注目度): 4.187687891358182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous vehicles (AVs) heavily rely on LiDAR perception for environment understanding and navigation. LiDAR intensity provides valuable information about the reflected laser signals and plays a crucial role in enhancing the perception capabilities of AVs. However, accurately simulating LiDAR intensity remains a challenge due to the unavailability of material properties of the objects in the environment, and complex interactions between the laser beam and the environment. The proposed method aims to improve the accuracy of intensity simulation by incorporating physics-based modalities within the deep learning framework. One of the key entities that captures the interaction between the laser beam and the objects is the angle of incidence. In this work we demonstrate that the addition of the LiDAR incidence angle as a separate input to the deep neural networks significantly enhances the results. We present a comparative study between two prominent deep learning architectures: U-NET a Convolutional Neural Network (CNN), and Pix2Pix a Generative Adversarial Network (GAN). We implemented these two architectures for the intensity prediction task and used SemanticKITTI and VoxelScape datasets for experiments. The comparative analysis reveals that both architectures benefit from the incidence angle as an additional input. Moreover, the Pix2Pix architecture outperforms U-NET, especially when the incidence angle is incorporated.
- Abstract(参考訳): 自動運転車(AV)は環境の理解とナビゲーションにLiDARの認識に大きく依存している。
LiDAR強度は反射レーザー信号に関する貴重な情報を提供し、AVの知覚能力を高める上で重要な役割を果たす。
しかし、LiDARの強度を正確にシミュレーションすることは、環境中の物体の材料特性が利用できないことや、レーザービームと環境の間の複雑な相互作用のため、依然として課題である。
提案手法は,深層学習フレームワークに物理に基づくモーダルティを組み込むことで,強度シミュレーションの精度を向上させることを目的とする。
レーザービームと物体の間の相互作用を捉える重要な要素の1つは、入射角である。
本研究は,深部ニューラルネットワークへの個別入力としてLiDAR入射角を追加することにより,結果を著しく向上させることを示した。
U-NET a Convolutional Neural Network (CNN) と Pix2Pix a Generative Adversarial Network (GAN) の2つの著名なディープラーニングアーキテクチャの比較研究を行った。
この2つのアーキテクチャを強度予測タスクに実装し,実験にSemanticKITTIとVoxelScapeデータセットを使用した。
比較分析により、どちらのアーキテクチャも追加入力として入射角から恩恵を受けることが明らかとなった。
さらにPix2Pixアーキテクチャは、特に入射角が組み込まれた場合、U-NETより優れている。
関連論文リスト
- Point-aware Interaction and CNN-induced Refinement Network for RGB-D
Salient Object Detection [95.84616822805664]
我々は,CNNによるトランスフォーマーアーキテクチャを導入し,ポイント・アウェア・インタラクションとCNNによるリファインメントを備えた新しいRGB-D SODネットワークを提案する。
トランスフォーマーがもたらすブロック効果とディテール破壊問題を自然に軽減するために,コンテンツリファインメントとサプリメントのためのCNNRユニットを設計する。
論文 参考訳(メタデータ) (2023-08-17T11:57:49Z) - LiDAR-NeRF: Novel LiDAR View Synthesis via Neural Radiance Fields [112.62936571539232]
本稿では,LiDARセンサのための新しいビュー合成手法を提案する。
スタイルトランスファーニューラルネットワークを用いた従来のモデルベースLiDARシミュレータは、新しいビューのレンダリングに応用できる。
ニューラル放射場(NeRF)を用いて幾何学と3D点の属性の連成学習を容易にする。
論文 参考訳(メタデータ) (2023-04-20T15:44:37Z) - Lightweight Monocular Depth Estimation with an Edge Guided Network [34.03711454383413]
本稿では,新しいエッジガイド深度推定ネットワーク(EGD-Net)を提案する。
特に、軽量なエンコーダデコーダアーキテクチャから始め、エッジガイダンスブランチを組み込む。
コンテクスト情報とエッジアテンション特徴を集約するために,トランスフォーマーをベースとした機能アグリゲーションモジュールを設計する。
論文 参考訳(メタデータ) (2022-09-29T14:45:47Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Deep learning for radar data exploitation of autonomous vehicle [0.0]
この論文は、周囲の物体の低コストな能動センサ特性である自動車RADARに焦点を当てている。
RAARセンサーは、角の解像度、サイズ、ノイズ、RAARの生データの複雑さが低いため、シーン理解にはほとんど使われない。
この論文は、注釈付きデータセットの構築から適応型ディープラーニングアーキテクチャの概念まで、RADARシーン理解の広範な研究を提案する。
論文 参考訳(メタデータ) (2022-03-15T16:19:51Z) - Network Comparison Study of Deep Activation Feature Discriminability
with Novel Objects [0.5076419064097732]
最先端のコンピュータビジョンアルゴリズムは、Deep Neural Networks(DNN)を特徴抽出に取り入れ、Deep Convolutional Activation Features(DeCAF)を作成する。
本研究では、6つの主要な視覚認識DNNアーキテクチャのDeCAF空間に符号化された新しい物体の視覚的外観の一般的な識別可能性について分析する。
論文 参考訳(メタデータ) (2022-02-08T07:40:53Z) - Learning Deep Context-Sensitive Decomposition for Low-Light Image
Enhancement [58.72667941107544]
典型的なフレームワークは、照明と反射を同時に推定することであるが、特徴空間にカプセル化されたシーンレベルの文脈情報を無視する。
本研究では,空間スケールにおけるシーンレベルのコンテキスト依存を生かした,コンテキスト依存型分解ネットワークアーキテクチャを提案する。
チャネル数を減らして軽量なCSDNet(LiteCSDNet)を開発する。
論文 参考訳(メタデータ) (2021-12-09T06:25:30Z) - RRNet: Relational Reasoning Network with Parallel Multi-scale Attention
for Salient Object Detection in Optical Remote Sensing Images [82.1679766706423]
光リモートセンシング画像(RSI)のためのSODは、光学RSIから視覚的に特徴的な物体や領域を探索・抽出することを目的としている。
光学RSIにおけるSODに並列なマルチスケールアテンションを持つリレーショナル推論ネットワークを提案する。
提案するRRNetは,既存の最先端SODコンペティタよりも質的,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-27T07:18:32Z) - On Deep Learning Techniques to Boost Monocular Depth Estimation for
Autonomous Navigation [1.9007546108571112]
画像の深さを推定することはコンピュータビジョンの分野における根本的な逆問題である。
本稿では,新しい特徴抽出モデルと組み合わせ,軽量で高速なCNNアーキテクチャを提案する。
また,SIDE問題を解くために,単純な幾何2.5D損失関数と組み合わせて効率的な表面正規化モジュールを導入する。
論文 参考訳(メタデータ) (2020-10-13T18:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。