論文の概要: Roadside Lidar Vehicle Detection and Tracking Using Range And Intensity
Background Subtraction
- arxiv url: http://arxiv.org/abs/2201.04756v1
- Date: Thu, 13 Jan 2022 00:54:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-15 01:14:42.041524
- Title: Roadside Lidar Vehicle Detection and Tracking Using Range And Intensity
Background Subtraction
- Title(参考訳): 距離・強度背景サブトラクションを用いた路面ライダー車両の検出と追跡
- Authors: Tianya Zhang and Peter J. Jin
- Abstract要約: 本稿では,2つの教師なし学習アルゴリズムを組み合わせた道路側LiDAR物体検出手法を提案する。
この手法は商用トラフィックデータ収集プラットフォームに対して検証された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present the solution of roadside LiDAR object detection
using a combination of two unsupervised learning algorithms. The 3D point
clouds data are firstly converted into spherical coordinates and filled into
the azimuth grid matrix using a hash function. After that, the raw LiDAR data
were rearranged into spatial-temporal data structures to store the information
of range, azimuth, and intensity. Dynamic Mode Decomposition method is applied
for decomposing the point cloud data into low-rank backgrounds and sparse
foregrounds based on intensity channel pattern recognition. The Triangle
Algorithm automatically finds the dividing value to separate the moving targets
from static background according to range information. After intensity and
range background subtraction, the foreground moving objects will be detected
using a density-based detector and encoded into the state-space model for
tracking. The output of the proposed model includes vehicle trajectories that
can enable many mobility and safety applications. The method was validated
against a commercial traffic data collection platform and demonstrated to be an
efficient and reliable solution for infrastructure LiDAR object detection. In
contrast to the previous methods that process directly on the scattered and
discrete point clouds, the proposed method can establish the less sophisticated
linear relationship of the 3D measurement data, which captures the
spatial-temporal structure that we often desire.
- Abstract(参考訳): 本稿では,2つの教師なし学習アルゴリズムを組み合わせた道路側LiDAR物体検出手法を提案する。
3次元点雲データはまず球面座標に変換し、ハッシュ関数を用いて方位格子行列に充填する。
その後、生のLiDARデータを時空間データ構造に再構成し、範囲、方位、強度の情報を記憶した。
動的モード分解法を用いて, 点雲データを低ランク背景とスパースフォアグラウンドに分解し, 強度チャネルパターン認識に基づく解析を行った。
トライアングルアルゴリズムは、移動対象を静止背景から範囲情報に従って分離する分割値を自動的に見つける。
前景の移動物体は、密度に基づく検出器を用いて検出され、追跡のための状態空間モデルに符号化される。
提案モデルの出力には、多くの移動および安全応用を可能にする車両軌道が含まれる。
この手法は商用トラフィックデータ収集プラットフォームに対して検証され、LiDARオブジェクト検出のための効率的で信頼性の高いソリューションであることが実証された。
飛散点雲と離散点雲を直接処理する従来の手法とは対照的に,提案手法は,我々がしばしば望む空間-時空間構造を捉えた3次元計測データのより洗練された線形関係を確立することができる。
関連論文リスト
- DSLO: Deep Sequence LiDAR Odometry Based on Inconsistent Spatio-temporal Propagation [66.8732965660931]
本稿では,LiDAR odometry DSLO の非一貫性時間伝搬に基づく3次元点列学習モデルを提案する。
ピラミッド構造で、シーケンシャルなポーズモジュール、階層的なポーズリファインメントモジュール、時間的特徴伝搬モジュールで構成されている。
論文 参考訳(メタデータ) (2024-09-01T15:12:48Z) - Robust 3D Object Detection from LiDAR-Radar Point Clouds via Cross-Modal
Feature Augmentation [7.364627166256136]
本稿では,点雲からの3次元物体検出のための新しい枠組みを提案する。
背骨の微細化と幻覚発生を同時に行うために,空間的および特徴的に複数のアライメントを導入する。
View-of-Delftデータセットの実験により,提案手法は,レーダとLiDARの両方のオブジェクト検出において,最先端(SOTA)手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-09-29T15:46:59Z) - Improving Online Lane Graph Extraction by Object-Lane Clustering [106.71926896061686]
本稿では,局所レーングラフの推定精度を向上させるために,アーキテクチャと損失の定式化を提案する。
提案手法は,中心線をクラスタ中心とすることで,対象を中心線に割り当てることを学ぶ。
提案手法は既存の3次元オブジェクト検出手法の出力を用いて,大幅な性能向上を実現することができることを示す。
論文 参考訳(メタデータ) (2023-07-20T15:21:28Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - Efficient Spatial-Temporal Information Fusion for LiDAR-Based 3D Moving
Object Segmentation [23.666607237164186]
本稿では,LiDAR-MOSの性能向上のために,空間時空間情報とLiDARスキャンの異なる表現モダリティを併用した新しいディープニューラルネットワークを提案する。
具体的には、まず、空間情報と時間情報とを別々に扱うために、レンジ画像に基づくデュアルブランチ構造を用いる。
また、3次元スパース畳み込みによるポイントリファインメントモジュールを使用して、LiDAR範囲の画像とポイントクラウド表現の両方からの情報を融合する。
論文 参考訳(メタデータ) (2022-07-05T17:59:17Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Weighted Bayesian Gaussian Mixture Model for Roadside LiDAR Object
Detection [0.5156484100374059]
背景モデリングは、静的な背景成分を減じることで移動目標を検出するインテリジェントな監視システムに広く利用されている。
多くの道路沿いのLiDARオブジェクト検出手法は、新しいデータポイントと事前訓練されたバックグラウンド参照を比較して前景点をフィルタリングする。
本稿では,各LiDAR点の標高と方位値に基づいて,生のLiDARデータを構造化表現に変換する。
提案手法は,2つの最先端の道路背景モデル,コンピュータビジョンベンチマーク,深層学習ベースラインを比較し,交通量と難易度で評価された点,対象,経路レベルを比較した。
論文 参考訳(メタデータ) (2022-04-20T22:48:05Z) - A two-stage data association approach for 3D Multi-object Tracking [0.0]
画像に基づくトラッキングを3D環境に適応させる2段階データアソシエーション手法を開発した。
提案手法は,NuScenes 検証セットにおいて0.587 AMOTA を達成し,データアソシエーションのための一段二部マッチングを用いてベースラインより優れる。
論文 参考訳(メタデータ) (2021-01-21T15:50:17Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - Range Conditioned Dilated Convolutions for Scale Invariant 3D Object
Detection [41.59388513615775]
本稿では,LiDARデータをそのネイティブ表現(範囲画像)に直接処理する新しい3Dオブジェクト検出フレームワークを提案する。
2D畳み込みは、レンジ画像のコンパクト性から、シーンの高密度LiDARデータを効率的に処理することができる。
論文 参考訳(メタデータ) (2020-05-20T09:24:43Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。