論文の概要: Analyzing Deep Learning Representations of Point Clouds for Real-Time
In-Vehicle LiDAR Perception
- arxiv url: http://arxiv.org/abs/2210.14612v1
- Date: Wed, 26 Oct 2022 10:39:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 12:43:13.362795
- Title: Analyzing Deep Learning Representations of Point Clouds for Real-Time
In-Vehicle LiDAR Perception
- Title(参考訳): リアルタイム車載LiDAR知覚のための点雲のディープラーニング表現の解析
- Authors: Marc Uecker and Tobias Fleck and Marcel Pflugfelder and J. Marius
Z\"ollner
- Abstract要約: 本稿では,現代の深層ニューラルネットワークで使用されているLiDAR点群を3次元点群処理に応用した新しい計算分類法を提案する。
これにより、計算効率、メモリ要件、表現能力の点で共通の利点と限界を明らかにする。
- 参考スコア(独自算出の注目度): 2.365702128814616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LiDAR sensors are an integral part of modern autonomous vehicles as they
provide an accurate, high-resolution 3D representation of the vehicle's
surroundings. However, it is computationally difficult to make use of the
ever-increasing amounts of data from multiple high-resolution LiDAR sensors. As
frame-rates, point cloud sizes and sensor resolutions increase, real-time
processing of these point clouds must still extract semantics from this
increasingly precise picture of the vehicle's environment. One deciding factor
of the run-time performance and accuracy of deep neural networks operating on
these point clouds is the underlying data representation and the way it is
computed. In this work, we examine the relationship between the computational
representations used in neural networks and their performance characteristics.
To this end, we propose a novel computational taxonomy of LiDAR point cloud
representations used in modern deep neural networks for 3D point cloud
processing. Using this taxonomy, we perform a structured analysis of different
families of approaches. Thereby, we uncover common advantages and limitations
in terms of computational efficiency, memory requirements, and representational
capacity as measured by semantic segmentation performance. Finally, we provide
some insights and guidance for future developments in neural point cloud
processing methods.
- Abstract(参考訳): LiDARセンサーは、車両の周囲の正確な高解像度の3D表現を提供するため、現代の自動運転車の不可欠な部分である。
しかし、複数の高分解能LiDARセンサからのデータ量の増加は計算的に困難である。
フレームレート、ポイントクラウドサイズ、センサー解像度が増加するにつれて、これらのポイントクラウドのリアルタイム処理は、車両環境のこのますます精密な図から意味を抽出する必要がある。
これらのポイントクラウドで動作するディープニューラルネットワークのランタイムパフォーマンスと精度の決定要因の1つは、基盤となるデータ表現とその計算方法である。
本研究では,ニューラルネットワークで使用される計算表現と,その性能特性との関係について検討する。
そこで本研究では,現代の深層ニューラルネットワークにおける3次元クラウド処理に使用されるLiDAR点クラウド表現の新しい計算分類法を提案する。
この分類法を用いて、異なる種類のアプローチを構造化解析する。
これにより,計算効率,メモリ要件,表現能力といった共通する利点と限界を,意味セグメンテーション性能で測定した。
最後に、ニューラルポイントクラウド処理手法の今後の発展に関する洞察とガイダンスを提供する。
関連論文リスト
- Application of Tensorized Neural Networks for Cloud Classification [0.0]
畳み込みニューラルネットワーク(CNN)は、天気予報、コンピュータビジョン、自律運転、医療画像解析など、さまざまな分野で広く利用されている。
しかし、これらの領域におけるCNNの実装と商業化は、モデルのサイズ、過度な適合、計算時間に関連する課題によって妨げられている。
モデルサイズと計算時間を削減するため,CNN内の高密度層をテンソル化することによる画期的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-03-21T06:28:22Z) - AutoSynth: Learning to Generate 3D Training Data for Object Point Cloud
Registration [69.21282992341007]
Auto Synthは、ポイントクラウド登録のための3Dトレーニングデータを自動的に生成する。
私たちはポイントクラウド登録ネットワークをもっと小さなサロゲートネットワークに置き換え、4056.43$のスピードアップを実現しました。
TUD-L,LINEMOD,Occluded-LINEMODに関する我々の研究結果は,検索データセットでトレーニングされたニューラルネットワークが,広く使用されているModelNet40データセットでトレーニングされたニューラルネットワークよりも一貫してパフォーマンスが向上していることを示す。
論文 参考訳(メタデータ) (2023-09-20T09:29:44Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Ponder: Point Cloud Pre-training via Neural Rendering [93.34522605321514]
本稿では,識別可能なニューラルエンコーダによる点雲表現の自己教師型学習手法を提案する。
学習したポイントクラウドは、3D検出やセグメンテーションといったハイレベルなレンダリングタスクだけでなく、3D再構成や画像レンダリングといった低レベルなタスクを含む、さまざまなダウンストリームタスクに簡単に統合できる。
論文 参考訳(メタデータ) (2022-12-31T08:58:39Z) - Self-Supervised Learning with Multi-View Rendering for 3D Point Cloud
Analysis [33.31864436614945]
本稿では,3次元点雲モデルのための新しい事前学習手法を提案する。
我々の事前訓練は、局所的なピクセル/ポイントレベルの対応損失と、大域的な画像/ポイントの雲のレベル損失によって自己管理される。
これらの改善されたモデルは、さまざまなデータセットや下流タスクにおける既存の最先端メソッドよりも優れています。
論文 参考訳(メタデータ) (2022-10-28T05:23:03Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Continual learning on 3D point clouds with random compressed rehearsal [10.667104977730304]
本研究では,3Dポイントクラウドデータ上で連続学習が可能なニューラルネットワークアーキテクチャを提案する。
我々は,過去のデータを強く圧縮した集合を保存するために,点雲構造特性を利用する。
論文 参考訳(メタデータ) (2022-05-16T22:59:52Z) - PCSCNet: Fast 3D Semantic Segmentation of LiDAR Point Cloud for
Autonomous Car using Point Convolution and Sparse Convolution Network [8.959391124399925]
ポイント・コンボリューションと3次元スパース・コンボリューション(PCSCNet)を用いた高速なボクセル・セマンティック・セマンティック・セマンティック・セマンティック・セマンティクスモデルを提案する。
提案モデルは,点畳み込みに基づく特徴抽出を用いて,高ボクセル分解能と低ボクセル分解能を両立させるように設計されている。
論文 参考訳(メタデータ) (2022-02-21T08:31:37Z) - Revisiting Point Cloud Simplification: A Learnable Feature Preserving
Approach [57.67932970472768]
MeshとPoint Cloudの単純化手法は、3Dモデルの複雑さを低減しつつ、視覚的品質と関連する健全な機能を維持することを目的としている。
そこで本研究では,正解点の標本化を学習し,高速点雲の簡易化手法を提案する。
提案手法は、入力空間から任意のユーザ定義の点数を選択し、視覚的知覚誤差を最小限に抑えるために、その位置を再配置するよう訓練されたグラフニューラルネットワークアーキテクチャに依存する。
論文 参考訳(メタデータ) (2021-09-30T10:23:55Z) - Learning Rotation-Invariant Representations of Point Clouds Using
Aligned Edge Convolutional Neural Networks [29.3830445533532]
ポイントクラウド分析は、シーンの深さを正確に測定できる3Dセンサーの開発によって、関心が高まる分野である。
点群解析に深層学習技術を適用することは、これらの手法が見えない回転に一般化できないため、簡単ではありません。
この制限に対処するには、通常、トレーニングデータを強化する必要があり、これは余分な計算につながる可能性があり、より大きなモデルの複雑さを必要とする。
本稿では,局所参照フレーム(LRF)に対する点群の特徴表現を学習する,Aligned Edge Convolutional Neural Network(AECNN)と呼ばれる新しいニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-01-02T17:36:00Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。