論文の概要: Synthesizing and Identifying Noise Levels in Autonomous Vehicle Camera Radar Datasets
- arxiv url: http://arxiv.org/abs/2505.00584v1
- Date: Thu, 01 May 2025 15:15:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:55.347637
- Title: Synthesizing and Identifying Noise Levels in Autonomous Vehicle Camera Radar Datasets
- Title(参考訳): 自律走行車用カメラレーダデータセットにおける雑音の合成と同定
- Authors: Mathis Morales, Golnaz Habibi,
- Abstract要約: 我々は、カメラレーダー自律走行車データセットのためのリアルな合成データ拡張パイプラインを作成します。
私たちのゴールは、現実世界の干渉によるセンサーの故障とデータの劣化を正確にシミュレートすることです。
また、ベースラインの軽量ノイズ認識ニューラルネットワークをトレーニングし、拡張データセット上でテストした結果も提示する。
- 参考スコア(独自算出の注目度): 2.435006380732195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting and tracking objects is a crucial component of any autonomous navigation method. For the past decades, object detection has yielded promising results using neural networks on various datasets. While many methods focus on performance metrics, few projects focus on improving the robustness of these detection and tracking pipelines, notably to sensor failures. In this paper we attempt to address this issue by creating a realistic synthetic data augmentation pipeline for camera-radar Autonomous Vehicle (AV) datasets. Our goal is to accurately simulate sensor failures and data deterioration due to real-world interferences. We also present our results of a baseline lightweight Noise Recognition neural network trained and tested on our augmented dataset, reaching an overall recognition accuracy of 54.4\% on 11 categories across 10086 images and 2145 radar point-clouds.
- Abstract(参考訳): オブジェクトの検出と追跡は、任意の自律的なナビゲーション方法の重要なコンポーネントである。
過去数十年間、オブジェクト検出は様々なデータセット上のニューラルネットワークを使用して有望な結果をもたらしてきた。
多くのメソッドはパフォーマンス指標に重点を置いているが、これらの検出と追跡パイプラインの堅牢性、特にセンサ障害の改善に焦点を当てているプロジェクトは少ない。
本稿では,カメラレーダ自律走行車(AV)データセットのための,現実的な合成データ拡張パイプラインを作成することにより,この問題に対処する。
私たちのゴールは、センサーの故障と実際の干渉によるデータの劣化を正確にシミュレートすることです。
また、拡張データセット上でトレーニングおよびテストされたベースライン軽量ノイズ認識ニューラルネットワークの結果、10086イメージと2145のレーダーポイントクラウドの11カテゴリで、全体的な認識精度は54.4\%に達した。
関連論文リスト
- Multi-Object Tracking based on Imaging Radar 3D Object Detection [0.13499500088995461]
本稿では,古典的追跡アルゴリズムを用いて,周囲の交通参加者を追跡する手法を提案する。
学習に基づく物体検出器はライダーとカメラのデータに適切に対応し、学習に基づく物体検出器は標準のレーダーデータ入力により劣っていることが示されている。
レーダセンサ技術の改良により、レーダの物体検出性能は大幅に改善されたが、レーダ点雲の広さによりライダーセンサに制限されている。
追跡アルゴリズムは、一貫したトラックを生成しながら、限られた検出品質を克服しなければならない。
論文 参考訳(メタデータ) (2024-06-03T05:46:23Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Super-Resolution Radar Imaging with Sparse Arrays Using a Deep Neural
Network Trained with Enhanced Virtual Data [0.4640835690336652]
本稿では,極薄レーダー開口部からのレーダデータを完全に処理できるディープニューラルネットワーク(DNN)に基づく手法を提案する。
提案したDNN処理は、エイリアスフリーレーダイメージングと超解像の両方を提供することができる。
完全に占有された配列で達成されるのとほぼ同じ解像度と画質を同時に提供する。
論文 参考訳(メタデータ) (2023-06-16T13:37:47Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Collaborative Learning with a Drone Orchestrator [79.75113006257872]
インテリジェントな無線デバイス群は、ドローンの助けを借りて共有ニューラルネットワークモデルを訓練する。
提案したフレームワークは,トレーニングの大幅な高速化を実現し,ドローンホバリング時間の平均24%と87%の削減を実現している。
論文 参考訳(メタデータ) (2023-03-03T23:46:25Z) - The LuViRA Dataset: Synchronized Vision, Radio, and Audio Sensors for Indoor Localization [41.58739817444644]
データセットには、カラー画像、対応する深度マップ、慣性測定ユニット(IMU)読み取り、5Gの大規模マルチインプットとMIMO(Multiple-output)テストベッドとユーザ機器のチャネル応答が含まれる。
これらのセンサーを同期させて、すべてのデータが同時に記録されるようにします。
このデータセットの主な目的は、ローカライゼーションタスクに最もよく使用されるセンサーとのセンサー融合の研究を可能にすることである。
論文 参考訳(メタデータ) (2023-02-10T15:12:40Z) - SimuShips -- A High Resolution Simulation Dataset for Ship Detection
with Precise Annotations [0.0]
畳み込みニューラルネットワーク(CNN)に基づく最先端の障害物検出アルゴリズム
SimuShipsは、海洋環境向けに公開されているシミュレーションベースのデータセットである。
論文 参考訳(メタデータ) (2022-09-22T07:33:31Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - On the Role of Sensor Fusion for Object Detection in Future Vehicular
Networks [25.838878314196375]
異なるセンサの組み合わせが車両の移動・運転環境の検出にどのように影響するかを評価します。
最終的な目標は、チャネルに分散するデータの量を最小限に抑える最適な設定を特定することです。
論文 参考訳(メタデータ) (2021-04-23T18:58:37Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Extraction and Assessment of Naturalistic Human Driving Trajectories
from Infrastructure Camera and Radar Sensors [0.0]
本稿では,インフラセンサを用いた交通物体の軌跡抽出手法を提案する。
私たちのビジョンパイプラインは、オブジェクトを正確に検出し、カメラとレーダーを融合させ、時間とともに追跡します。
センサ融合アプローチは、カメラとレーダー検出の利点をうまく組み合わせ、いずれのセンサよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-02T22:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。