論文の概要: Analysis of LiDAR Configurations on Off-road Semantic Segmentation
Performance
- arxiv url: http://arxiv.org/abs/2306.16551v1
- Date: Wed, 28 Jun 2023 20:41:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 15:35:39.217518
- Title: Analysis of LiDAR Configurations on Off-road Semantic Segmentation
Performance
- Title(参考訳): オフロードセマンティックセマンティックセグメンテーション性能におけるLiDAR構成の解析
- Authors: Jinhee Yu, Jingdao Chen, Lalitha Dabbiru, Christopher T. Goodin
- Abstract要約: 本稿では、3次元LiDARポイントクラウドセマンティックセグメンテーションモデルの性能に及ぼすLiDAR構成シフトの影響について検討する。
Cylinder3Dモデルは、ミシシッピ州立大学自動運転車シミュレータ(MAVS)で作成したシミュレーションされた3D LiDARポイントクラウドデータセットと、実世界のオフロード環境で収集されたRELLIS-3Dデータセットの32,64チャンネルのLiDARポイントクラウドでトレーニングされ、テストされている。
- 参考スコア(独自算出の注目度): 0.6882042556551609
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the impact of LiDAR configuration shifts on the
performance of 3D LiDAR point cloud semantic segmentation models, a topic not
extensively studied before. We explore the effect of using different LiDAR
channels when training and testing a 3D LiDAR point cloud semantic segmentation
model, utilizing Cylinder3D for the experiments. A Cylinder3D model is trained
and tested on simulated 3D LiDAR point cloud datasets created using the
Mississippi State University Autonomous Vehicle Simulator (MAVS) and 32, 64
channel 3D LiDAR point clouds of the RELLIS-3D dataset collected in a
real-world off-road environment. Our experimental results demonstrate that
sensor and spatial domain shifts significantly impact the performance of
LiDAR-based semantic segmentation models. In the absence of spatial domain
changes between training and testing, models trained and tested on the same
sensor type generally exhibited better performance. Moreover, higher-resolution
sensors showed improved performance compared to those with lower-resolution
ones. However, results varied when spatial domain changes were present. In some
cases, the advantage of a sensor's higher resolution led to better performance
both with and without sensor domain shifts. In other instances, the higher
resolution resulted in overfitting within a specific domain, causing a lack of
generalization capability and decreased performance when tested on data with
different sensor configurations.
- Abstract(参考訳): 本稿では,LiDARの設定変化が3次元LiDARポイントクラウドセマンティックセグメンテーションモデルの性能に与える影響について検討する。
実験にCylinder3Dを用いた3次元LiDARポイントクラウドセマンティックセマンティックセグメンテーションモデルのトレーニングおよびテストにおいて,異なるLiDARチャネルを使用することの効果を検討する。
シリンダー3dモデルは、ミシシッピ州立大学のautonomous vehicle simulator(mavs)で作成したシミュレーション3d lidar point cloudデータセットと、現実世界のオフロード環境で収集されたrellis-3dデータセットの32,64チャンネルの3d lidar point cloud上でトレーニングおよびテストされる。
実験の結果,センサと空間領域のシフトは,LiDARに基づくセマンティックセグメンテーションモデルの性能に大きく影響することが示された。
トレーニングとテストの間の空間領域の変化がないため、同じセンサータイプでトレーニングとテストを行ったモデルは、一般的により優れた性能を示した。
さらに,高分解能センサは低分解能センサに比べて性能が向上した。
しかし,空間的領域変化が存在すると,結果は異なっていた。
場合によっては、センサーの高解像度化の利点は、センサードメインシフトと非センサードメインシフトの両方でパフォーマンスの向上につながった。
別の例では、高解像度は特定のドメイン内で過度に適合し、一般化能力が欠如し、異なるセンサー構成のデータでテストした場合のパフォーマンスが低下した。
関連論文リスト
- Study of Dropout in PointPillars with 3D Object Detection [0.0]
ディープラーニング技術を活用してLiDARデータを解釈する。
本研究では,ポイントピラーモデルの性能を様々なドロップアウト率で向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-09-01T09:30:54Z) - Revisiting Cross-Domain Problem for LiDAR-based 3D Object Detection [5.149095033945412]
我々は最先端モデルのクロスドメイン性能を深く分析する。
ほとんどのモデルはトレーニングドメインに過度に適合し、それを他のドメインに直接適用することは困難である。
我々は、メソッドの精度レベルにおける過度な低下の中核的な問題を分析するために、サイドビューとフロントビューAPという、さらなる評価指標を提案する。
論文 参考訳(メタデータ) (2024-08-22T19:52:44Z) - Improving LiDAR 3D Object Detection via Range-based Point Cloud Density
Optimization [13.727464375608765]
既存の3Dオブジェクト検出器は、遠くにある領域とは対照的に、LiDARセンサーに近い点雲領域でよく機能する傾向にある。
センサ近傍の高密度物体に対する検出モデルには学習バイアスがあり、異なる距離で入力点雲密度を操作するだけで検出性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-09T04:11:43Z) - Instant Domain Augmentation for LiDAR Semantic Segmentation [10.250046817380458]
本稿では「LiDomAug」と呼ばれるセマンティックセグメンテーションタスクのための高速で柔軟なLiDAR拡張手法を提案する。
当社のオンデマンド拡張モジュールは330 FPSで動作するので、学習フレームワークのデータローダにシームレスに統合することができます。
論文 参考訳(メタデータ) (2023-03-25T06:59:12Z) - LiDAR-CS Dataset: LiDAR Point Cloud Dataset with Cross-Sensors for 3D
Object Detection [36.77084564823707]
ディープラーニングの手法は注釈付きデータに大きく依存しており、ドメインの一般化の問題に直面することが多い。
LiDAR-CSデータセットは、リアルタイムトラフィックにおける3Dオブジェクト検出の領域におけるセンサ関連ギャップに対処する最初のデータセットである。
論文 参考訳(メタデータ) (2023-01-29T19:10:35Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Complete & Label: A Domain Adaptation Approach to Semantic Segmentation
of LiDAR Point Clouds [49.47017280475232]
3次元点雲のセマンティックラベリングにおける教師なし領域適応問題について検討する。
セグメンテーションネットワークに渡す前に、基盤となる表面を復元するためにComplete と Label のアプローチを採用する。
回収された3D表面は標準領域として機能し、そこからセマンティックラベルが異なるLiDARセンサー間で転送される。
論文 参考訳(メタデータ) (2020-07-16T17:42:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。