論文の概要: CNN based Road User Detection using the 3D Radar Cube
- arxiv url: http://arxiv.org/abs/2004.12165v2
- Date: Thu, 16 Jul 2020 10:06:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 22:03:19.464313
- Title: CNN based Road User Detection using the 3D Radar Cube
- Title(参考訳): 3次元レーダキューブを用いたCNNによる道路ユーザ検出
- Authors: Andras Palffy, Jiaao Dong, Julian F. P. Kooij and Dariu M. Gavrila
- Abstract要約: 移動道路利用者(歩行者、サイクリスト、車)を対象とした新しいレーダーによる単フレームマルチクラス検知手法を提案する。
この方法は、レーダー目標レベルとオブジェクトレベルの両方に関するクラス情報を提供する。
実生活データセットを用いた実験では,本手法がターゲットとオブジェクトの両面で最先端の手法より優れていることを示した。
- 参考スコア(独自算出の注目度): 6.576173998482649
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This letter presents a novel radar based, single-frame, multi-class detection
method for moving road users (pedestrian, cyclist, car), which utilizes
low-level radar cube data. The method provides class information both on the
radar target- and object-level. Radar targets are classified individually after
extending the target features with a cropped block of the 3D radar cube around
their positions, thereby capturing the motion of moving parts in the local
velocity distribution. A Convolutional Neural Network (CNN) is proposed for
this classification step. Afterwards, object proposals are generated with a
clustering step, which not only considers the radar targets' positions and
velocities, but their calculated class scores as well. In experiments on a
real-life dataset we demonstrate that our method outperforms the
state-of-the-art methods both target- and object-wise by reaching an average of
0.70 (baseline: 0.68) target-wise and 0.56 (baseline: 0.48) object-wise F1
score. Furthermore, we examine the importance of the used features in an
ablation study.
- Abstract(参考訳): 本文は,低レベルレーダ立方体データを利用する移動道路利用者(歩行者,サイクリスト,自動車)を対象に,新しいレーダベース単一フレームマルチクラス検出手法を提案する。
この方法は、レーダー目標レベルとオブジェクトレベルの両方に関するクラス情報を提供する。
レーダターゲットは3次元レーダキューブの刈り取られたブロックをその位置に沿って拡大し、局所速度分布における可動部の運動を捉えた後に個別に分類される。
この分類ステップのために畳み込みニューラルネットワーク(CNN)を提案する。
その後、レーダターゲットの位置や速度だけでなく、計算されたクラススコアも考慮したクラスタリングステップでオブジェクトの提案が生成される。
実生活データセットを用いた実験では,本手法は目標値0.70(ベースライン:0.68),目標値0.56(ベースライン:0.48),目標値F1(ベースライン:0.48),目標値0.70(ベースライン:0。
さらに, アブレーション研究における使用済み特徴の重要性について検討した。
関連論文リスト
- SeMoLi: What Moves Together Belongs Together [51.72754014130369]
動作手がかりに基づく半教師付き物体検出に挑戦する。
近年,移動物体の擬似ラベルインスタンスに対して,動きに基づくクラスタリング手法が適用可能であることが示唆された。
我々は、このアプローチを再考し、オブジェクト検出とモーションインスパイアされた擬似ラベルの両方が、データ駆動方式で取り組めることを示唆する。
論文 参考訳(メタデータ) (2024-02-29T18:54:53Z) - Improving Online Lane Graph Extraction by Object-Lane Clustering [106.71926896061686]
本稿では,局所レーングラフの推定精度を向上させるために,アーキテクチャと損失の定式化を提案する。
提案手法は,中心線をクラスタ中心とすることで,対象を中心線に割り当てることを学ぶ。
提案手法は既存の3次元オブジェクト検出手法の出力を用いて,大幅な性能向上を実現することができることを示す。
論文 参考訳(メタデータ) (2023-07-20T15:21:28Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - A recurrent CNN for online object detection on raw radar frames [7.074916574419171]
本研究では,オンラインレーダオブジェクト検出のための新しいCNNアーキテクチャを提案する。
本稿では,コンボリューションとConvLSTMを混合したエンドツーエンドのトレーニング可能なアーキテクチャを提案する。
我々のモデルは因果的であり、オブジェクトを検出するためにConvLSTMのメモリに符号化された過去の情報のみを必要とする。
論文 参考訳(メタデータ) (2022-12-21T16:36:36Z) - RaLiBEV: Radar and LiDAR BEV Fusion Learning for Anchor Box Free Object
Detection Systems [13.046347364043594]
自動運転では、LiDARとレーダーは環境認識に不可欠である。
最近の最先端の研究は、レーダーとLiDARの融合が悪天候の堅牢な検出につながることを明らかにしている。
鳥眼ビュー融合学習に基づくアンカーボックスフリー物体検出システムを提案する。
論文 参考訳(メタデータ) (2022-11-11T10:24:42Z) - Radar-Camera Sensor Fusion for Joint Object Detection and Distance
Estimation in Autonomous Vehicles [8.797434238081372]
本稿では,自律走行シナリオにおける物体検出と距離推定のための新しいレーダーカメラセンサ融合フレームワークを提案する。
提案アーキテクチャでは,レーダーポイント雲とRGB画像の融合に中間融合方式を用いる。
難易度の高いnuScenesデータセットの実験では、我々の手法は2次元物体検出タスクにおいて既存のレーダー・カメラ融合法よりも優れていた。
論文 参考訳(メタデータ) (2020-09-17T17:23:40Z) - Radar-based Dynamic Occupancy Grid Mapping and Object Detection [55.74894405714851]
近年、古典的占有グリッドマップのアプローチが動的占有グリッドマップに拡張されている。
本稿では,従来のアプローチのさらなる発展について述べる。
複数のレーダセンサのデータを融合し、グリッドベースの物体追跡・マッピング手法を適用する。
論文 参考訳(メタデータ) (2020-08-09T09:26:30Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - Probabilistic Oriented Object Detection in Automotive Radar [8.281391209717103]
本稿では,レーダー物体検出のためのディープラーニングに基づくアルゴリズムを提案する。
我々は102544フレームの生レーダと同期LiDARデータを備えた新しいマルチモーダルデータセットを作成しました。
我々の最高性能レーダ検出モデルは、指向性IoU0.3で77.28%APを達成した。
論文 参考訳(メタデータ) (2020-04-11T05:29:32Z) - RODNet: Radar Object Detection Using Cross-Modal Supervision [34.33920572597379]
レーダーは通常、厳しい運転シナリオではカメラよりも頑丈である。
カメラが撮影したRGB画像とは異なり、レーダー信号からのセマンティック情報は明らかに抽出が困難である。
レーダ周波数データからオブジェクトを純粋に検出するディープレーダオブジェクト検出ネットワーク(RODNet)を提案する。
論文 参考訳(メタデータ) (2020-03-03T22:33:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。