論文の概要: UAV LiDAR Point Cloud Segmentation of A Stack Interchange with Deep
Neural Networks
- arxiv url: http://arxiv.org/abs/2010.11106v1
- Date: Wed, 21 Oct 2020 16:15:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 00:26:39.550133
- Title: UAV LiDAR Point Cloud Segmentation of A Stack Interchange with Deep
Neural Networks
- Title(参考訳): 深層ニューラルネットワークを用いたスタックインターチェンジのUAV LiDARポイントクラウドセグメンテーション
- Authors: Weikai Tan, Dedong Zhang, Lingfei Ma, Ying Li, Lanying Wang, and
Jonathan Li
- Abstract要約: 本研究では,新しい無人航空機(UAV)光検出・照準システム(LiDAR)によって収集された点雲について検討した。
ポイントクラウドを分類するために、エンドツーエンドで教師付き3Dディープラーニングフレームワークが提案された。
提案手法は,重畳畳み込みを伴う複雑な交換シナリオにおける3次元特徴を抽出し,93%以上の分類精度を達成した。
- 参考スコア(独自算出の注目度): 26.9629258425327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stack interchanges are essential components of transportation systems. Mobile
laser scanning (MLS) systems have been widely used in road infrastructure
mapping, but accurate mapping of complicated multi-layer stack interchanges are
still challenging. This study examined the point clouds collected by a new
Unmanned Aerial Vehicle (UAV) Light Detection and Ranging (LiDAR) system to
perform the semantic segmentation task of a stack interchange. An end-to-end
supervised 3D deep learning framework was proposed to classify the point
clouds. The proposed method has proven to capture 3D features in complicated
interchange scenarios with stacked convolution and the result achieved over 93%
classification accuracy. In addition, the new low-cost semi-solid-state LiDAR
sensor Livox Mid-40 featuring a incommensurable rosette scanning pattern has
demonstrated its potential in high-definition urban mapping.
- Abstract(参考訳): スタックインターチェンジは輸送システムの必須コンポーネントである。
モバイルレーザー走査(mls)システムは道路インフラマッピングに広く用いられているが、複雑な多層スタックインターチェンジの正確なマッピングは依然として困難である。
本研究では,新しい無人航空機(UAV)光検出・照準システム(LiDAR)によって収集された点群を解析し,スタックインターチェンジのセマンティックセグメンテーションタスクを実行する。
ポイントクラウドを分類するために、エンドツーエンドで教師付き3Dディープラーニングフレームワークが提案された。
提案手法は,重畳畳み込みを伴う複雑な交換シナリオにおける3次元特徴を抽出し,93%以上の分類精度を達成した。
さらに、ローコストな半固体LiDARセンサーLivox Mid-40は、一般的なロゼットスキャンパターンを特徴としている。
関連論文リスト
- Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - FASTC: A Fast Attentional Framework for Semantic Traversability Classification Using Point Cloud [7.711666704468952]
点雲を用いたトラバーサビリティ評価の問題に対処する。
本稿では,垂直に配置された点雲から特徴を捉えるために PointNet を利用した柱状特徴抽出モジュールを提案する。
次に、LIDAR点雲の密度問題に適切に対応できる多フレーム情報を融合する新しい時間的アテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-06-24T12:01:55Z) - Paint and Distill: Boosting 3D Object Detection with Semantic Passing
Network [70.53093934205057]
ライダーやカメラセンサーからの3Dオブジェクト検出タスクは、自動運転に不可欠である。
本研究では,既存のライダーベース3D検出モデルの性能向上を図るために,SPNetという新しいセマンティックパスフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T12:35:34Z) - LiDAR-based 4D Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,両タスクの現在の最先端手法よりも優れた精度を実現する。
DS-Netを4次元パノプティカルLiDARセグメンテーションに拡張し、一列のLiDARフレーム上で時間的に統一されたインスタンスクラスタリングを行う。
論文 参考訳(メタデータ) (2022-03-14T15:25:42Z) - PillarGrid: Deep Learning-based Cooperative Perception for 3D Object
Detection from Onboard-Roadside LiDAR [15.195933965761645]
我々は,複数の3次元LiDARからの情報を融合した新しい協調認識手法であるtextitPillarGridを提案する。
PillarGrid は,1) 点雲の協調前処理,2) 軸方向のボキセル化と特徴抽出,3) 複数のセンサからの特徴のグリッド方向の深層融合,4) 畳み込みニューラルネットワーク(CNN) に基づく3Dオブジェクト検出である。
広汎な実験により、PillarGridはSOTA単一LiDARに基づく3Dオブジェクト検出法よりも精度と範囲を大きなマージンで上回ることがわかった。
論文 参考訳(メタデータ) (2022-03-12T02:28:41Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z) - siaNMS: Non-Maximum Suppression with Siamese Networks for Multi-Camera
3D Object Detection [65.03384167873564]
サイムズネットワークは、よく知られた3Dオブジェクト検出器アプローチのパイプラインに統合される。
アソシエーションはオブジェクトの3Dボックスレグレッションを強化するために利用される。
nuScenesデータセットの実験的評価は,提案手法が従来のNMS手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2020-02-19T15:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。