論文の概要: Parallel Neural Computing for Scene Understanding from LiDAR Perception in Autonomous Racing
- arxiv url: http://arxiv.org/abs/2412.18165v1
- Date: Tue, 24 Dec 2024 04:56:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:55:03.484776
- Title: Parallel Neural Computing for Scene Understanding from LiDAR Perception in Autonomous Racing
- Title(参考訳): 自律レースにおけるLiDAR知覚からのシーン理解のための並列ニューラルコンピューティング
- Authors: Suwesh Prasad Sah,
- Abstract要約: 従来のシーケンシャルネットワークアプローチは、自律エージェントのリアルタイム知識と意思決定要求を満たすのに苦労する可能性がある。
本稿では,真のハードウェア対応並列処理が可能な高度なモデルを開発するための,新しいベースラインアーキテクチャを提案する。
提案モデルでは,LiDARセンサからの生の3Dポイントクラウドデータを入力として,両デバイスの2D Bird’s Eye View Mapに変換する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Autonomous driving in high-speed racing, as opposed to urban environments, presents significant challenges in scene understanding due to rapid changes in the track environment. Traditional sequential network approaches may struggle to meet the real-time knowledge and decision-making demands of an autonomous agent covering large displacements in a short time. This paper proposes a novel baseline architecture for developing sophisticated models capable of true hardware-enabled parallelism, achieving neural processing speeds that mirror the agent's high velocity. The proposed model (Parallel Perception Network (PPN)) consists of two independent neural networks, segmentation and reconstruction networks, running parallelly on separate accelerated hardware. The model takes raw 3D point cloud data from the LiDAR sensor as input and converts it into a 2D Bird's Eye View Map on both devices. Each network independently extracts its input features along space and time dimensions and produces outputs parallelly. The proposed method's model is trained on a system with two NVIDIA T4 GPUs, using a combination of loss functions, including edge preservation, and demonstrates a 2x speedup in model inference time compared to a sequential configuration. Implementation is available at: https://github.com/suwesh/Parallel-Perception-Network. Learned parameters of the trained networks are provided at: https://huggingface.co/suwesh/ParallelPerceptionNetwork.
- Abstract(参考訳): 高速走行における自律走行は、都市環境とは対照的に、トラック環境の急激な変化によるシーン理解において重大な課題を呈している。
従来のシーケンシャルネットワークアプローチは、短時間で大規模な変位をカバーする自律エージェントのリアルタイム知識と意思決定要求を満たすのに苦労する可能性がある。
本稿では,エージェントの高速を反映したニューラル処理速度を実現するため,真のハードウェア対応並列処理が可能な高度なモデルを開発するための新しいベースラインアーキテクチャを提案する。
提案したモデル(Parallel Perception Network (PPN))は、2つの独立したニューラルネットワーク、セグメンテーションと再構成ネットワークで構成され、別々のアクセラレーションハードウェア上で並列に動作する。
このモデルは、LiDARセンサーからの生の3Dポイントのクラウドデータを入力として、両方のデバイス上の2D Bird’s Eye View Mapに変換する。
各ネットワークは、その入力特徴を空間と時間次元に沿って独立に抽出し、並列に出力を生成する。
提案手法のモデルは、エッジ保存を含む損失関数の組み合わせを用いて、2つのNVIDIA T4 GPUを持つシステム上で訓練され、逐次構成と比較してモデル推論時間の2倍の高速化を示す。
実装は以下の通りである。 https://github.com/suwesh/Parallel-Perception-Network。
トレーニングされたネットワークの学習されたパラメータは、https://huggingface.co/suwesh/ParallelPerceptionNetwork.comで提供されている。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Runtime Construction of Large-Scale Spiking Neuronal Network Models on
GPU Devices [0.0]
本稿では,GPUメモリ上で対話的,動的,直接的にネットワーク接続を作成する新しい手法を提案する。
我々は,2つの神経科学的なモデルを用いて,コンシューマとデータセンタのGPUによるシミュレーション性能を検証する。
ネットワーク構築時間とシミュレーション時間は、他の最先端のシミュレーション技術と同等か短い。
論文 参考訳(メタデータ) (2023-06-16T14:08:27Z) - TAP: Accelerating Large-Scale DNN Training Through Tensor Automatic
Parallelisation [19.009600866053923]
本稿では,最適なデータとテンソル並列スケジュールを自動的に検索するモデル並列化フレームワークTAPを提案する。
実験によると、TAPは最先端の自動並列処理フレームワークよりも20ドルから160ドル高速である。
論文 参考訳(メタデータ) (2023-02-01T05:22:28Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - Application of 2-D Convolutional Neural Networks for Damage Detection in
Steel Frame Structures [0.0]
本稿では,2次元畳み込みニューラルネットワーク(2次元CNN)を特徴抽出と分類段階の両方に応用する。
本手法では、深度ではなく、光ったCNNのネットワークを使用し、生の加速度信号を入力とする。
論文 参考訳(メタデータ) (2021-10-29T16:29:31Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - Dual-view Snapshot Compressive Imaging via Optical Flow Aided Recurrent
Neural Network [14.796204921975733]
デュアルビュースナップショット圧縮イメージング(SCI)は、2つの視野(FoV)からのビデオを1つのスナップショットでキャプチャすることを目的としている。
既存のモデルベースの復号アルゴリズムでは個々のシーンを再構築することは困難である。
本稿では,2重ビデオSCIシステムのための光フロー支援型リカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-09-11T14:24:44Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - RT3D: Achieving Real-Time Execution of 3D Convolutional Neural Networks
on Mobile Devices [57.877112704841366]
本稿では3次元CNNのためのモデル圧縮およびモバイルアクセラレーションフレームワークRT3Dを提案する。
3D CNNのリアルタイム実行は、市販のモバイル上で初めて実現された。
論文 参考訳(メタデータ) (2020-07-20T02:05:32Z) - STH: Spatio-Temporal Hybrid Convolution for Efficient Action Recognition [39.58542259261567]
本稿では,空間的・時間的映像情報を小さなパラメータで同時に符号化するS-Temporal Hybrid Network(STH)を提案する。
このような設計は、効率的な時間的モデリングを可能にし、小さなモデルスケールを維持する。
STHは、3D CNNよりもパフォーマンス上の優位性を持ち、2D CNNよりもはるかに少ないパラメータコストを維持している。
論文 参考訳(メタデータ) (2020-03-18T04:46:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。