論文の概要: RadarScenes: A Real-World Radar Point Cloud Data Set for Automotive
Applications
- arxiv url: http://arxiv.org/abs/2104.02493v2
- Date: Sun, 18 Feb 2024 10:43:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 22:05:58.061508
- Title: RadarScenes: A Real-World Radar Point Cloud Data Set for Automotive
Applications
- Title(参考訳): radarscenes: 自動車アプリケーションのための現実世界のレーダーポイントクラウドデータセット
- Authors: Ole Schumann, Markus Hahn, Nicolas Scheiner, Fabio Weishaupt, Julius
F. Tilly, J\"urgen Dickmann, Christian W\"ohler
- Abstract要約: このデータセットの目的は、新しい(機械学習に基づく)レーダー認識アルゴリズムの開発を可能にすることである。
追加情報とダウンロード手順は、データセットのWebサイト(www.radar-scenes.com)で見ることができる。
- 参考スコア(独自算出の注目度): 0.17992352397675154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new automotive radar data set with measurements and point-wise annotations
from more than four hours of driving is presented. Data provided by four series
radar sensors mounted on one test vehicle were recorded and the individual
detections of dynamic objects were manually grouped to clusters and labeled
afterwards. The purpose of this data set is to enable the development of novel
(machine learning-based) radar perception algorithms with the focus on moving
road users. Images of the recorded sequences were captured using a documentary
camera. For the evaluation of future object detection and classification
algorithms, proposals for score calculation are made so that researchers can
evaluate their algorithms on a common basis. Additional information as well as
download instructions can be found on the website of the data set:
www.radar-scenes.com.
- Abstract(参考訳): 4時間以上の運転から測定値とポイントワイズアノテーションを備えた新しい自動車レーダデータセットが提示された。
1台の試験車に搭載された4つのレーダセンサーから得られたデータを記録し、動的物体の個別検出を手動でクラスターにグループ化し、その後ラベル付けした。
このデータセットの目的は、移動道路利用者に焦点を当てた新しい(機械学習に基づく)レーダ認識アルゴリズムの開発を可能にすることである。
記録されたシーケンスの画像は、ドキュメンタリーカメラで撮影された。
将来のオブジェクト検出および分類アルゴリズムの評価のために,研究者が共通のアルゴリズムを評価できるように,スコア計算の提案を行う。
追加情報とダウンロード手順は、データセットのウェブサイト(www.radar-scenes.com)で見ることができる。
関連論文リスト
- Multi-Object Tracking based on Imaging Radar 3D Object Detection [0.13499500088995461]
本稿では,古典的追跡アルゴリズムを用いて,周囲の交通参加者を追跡する手法を提案する。
学習に基づく物体検出器はライダーとカメラのデータに適切に対応し、学習に基づく物体検出器は標準のレーダーデータ入力により劣っていることが示されている。
レーダセンサ技術の改良により、レーダの物体検出性能は大幅に改善されたが、レーダ点雲の広さによりライダーセンサに制限されている。
追跡アルゴリズムは、一貫したトラックを生成しながら、限られた検出品質を克服しなければならない。
論文 参考訳(メタデータ) (2024-06-03T05:46:23Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Deep Instance Segmentation with High-Resolution Automotive Radar [2.167586397005864]
本稿では,レーダ検出点を用いた2つの効率的な分割法を提案する。
1つは、PointNet++フレームワークを使用してエンドツーエンドのディープラーニング駆動方式で実装されている。
もう一つは、セマンティック情報を用いたレーダー検出点のクラスタリングに基づいている。
論文 参考訳(メタデータ) (2021-10-05T01:18:27Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Radar Artifact Labeling Framework (RALF): Method for Plausible Radar
Detections in Datasets [2.5899040911480187]
粗いレーダ点雲のラベル付けのためのクロスセンサレーダアーチファクトラベルフレームワーク(RALF)を提案する。
RALFは、レーダーの生検出のための可視性ラベルを提供し、アーティファクトとターゲットを区別する。
半手動ラベル付き地上真理データセットの3.28cdot106$ポイントの誤差測定値を評価することにより,結果を検証する。
論文 参考訳(メタデータ) (2020-12-03T15:11:31Z) - Radar-based Dynamic Occupancy Grid Mapping and Object Detection [55.74894405714851]
近年、古典的占有グリッドマップのアプローチが動的占有グリッドマップに拡張されている。
本稿では,従来のアプローチのさらなる発展について述べる。
複数のレーダセンサのデータを融合し、グリッドベースの物体追跡・マッピング手法を適用する。
論文 参考訳(メタデータ) (2020-08-09T09:26:30Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - CARRADA Dataset: Camera and Automotive Radar with Range-Angle-Doppler
Annotations [0.0]
距離角-ドップラーアノテーションを用いた同期カメラとレーダ記録のデータセットであるCARRADAを紹介する。
また、データセットのアノテートに使用された半自動アノテーション手法と、レーダーセマンティックセグメンテーションベースラインを提案する。
論文 参考訳(メタデータ) (2020-05-04T13:14:29Z) - Probabilistic Oriented Object Detection in Automotive Radar [8.281391209717103]
本稿では,レーダー物体検出のためのディープラーニングに基づくアルゴリズムを提案する。
我々は102544フレームの生レーダと同期LiDARデータを備えた新しいマルチモーダルデータセットを作成しました。
我々の最高性能レーダ検出モデルは、指向性IoU0.3で77.28%APを達成した。
論文 参考訳(メタデータ) (2020-04-11T05:29:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。