論文の概要: Deep learning for radar data exploitation of autonomous vehicle
- arxiv url: http://arxiv.org/abs/2203.08038v1
- Date: Tue, 15 Mar 2022 16:19:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 15:48:32.035816
- Title: Deep learning for radar data exploitation of autonomous vehicle
- Title(参考訳): 自動運転車のレーダーデータ活用のためのディープラーニング
- Authors: Arthur Ouaknine
- Abstract要約: この論文は、周囲の物体の低コストな能動センサ特性である自動車RADARに焦点を当てている。
RAARセンサーは、角の解像度、サイズ、ノイズ、RAARの生データの複雑さが低いため、シーン理解にはほとんど使われない。
この論文は、注釈付きデータセットの構築から適応型ディープラーニングアーキテクチャの概念まで、RADARシーン理解の広範な研究を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous driving requires a detailed understanding of complex driving
scenes. The redundancy and complementarity of the vehicle's sensors provide an
accurate and robust comprehension of the environment, thereby increasing the
level of performance and safety. This thesis focuses the on automotive RADAR,
which is a low-cost active sensor measuring properties of surrounding objects,
including their relative speed, and has the key advantage of not being impacted
by adverse weather conditions. With the rapid progress of deep learning and the
availability of public driving datasets, the perception ability of vision-based
driving systems has considerably improved. The RADAR sensor is seldom used for
scene understanding due to its poor angular resolution, the size, noise, and
complexity of RADAR raw data as well as the lack of available datasets. This
thesis proposes an extensive study of RADAR scene understanding, from the
construction of an annotated dataset to the conception of adapted deep learning
architectures. First, this thesis details approaches to tackle the current lack
of data. A simple simulation as well as generative methods for creating
annotated data will be presented. It will also describe the CARRADA dataset,
composed of synchronised camera and RADAR data with a semi-automatic annotation
method. This thesis then present a proposed set of deep learning architectures
with their associated loss functions for RADAR semantic segmentation. It also
introduces a method to open up research into the fusion of LiDAR and RADAR
sensors for scene understanding. Finally, this thesis exposes a collaborative
contribution, the RADIal dataset with synchronised High-Definition (HD) RADAR,
LiDAR and camera. A deep learning architecture is also proposed to estimate the
RADAR signal processing pipeline while performing multitask learning for object
detection and free driving space segmentation.
- Abstract(参考訳): 自動運転は複雑な運転シーンの詳細な理解を必要とする。
車両のセンサーの冗長性と相補性は環境の正確で堅牢な理解をもたらし、それによって性能と安全性のレベルが向上する。
この論文は、周囲の物体の相対速度を含む低コストな能動センサー特性である自動車RADARに焦点を当てており、悪天候の影響を受けない重要な利点がある。
ディープラーニングの急速な進歩と公共運転データセットの利用により、視覚ベースの運転システムの認識能力は大幅に向上した。
RADARセンサーは、角分解能の低さや、RAARの生データのサイズ、ノイズ、複雑さ、利用可能なデータセットの欠如など、シーン理解にはほとんど使われない。
この論文は、注釈付きデータセットの構築から適応型ディープラーニングアーキテクチャの概念まで、RADARシーン理解の広範な研究を提案する。
まず、この論文は現在のデータ不足に対処するためのアプローチを詳述する。
注釈付きデータを作成するための単純なシミュレーションと生成手法が提示される。
また、同期カメラとRADARデータからなるCARRADAデータセットを半自動アノテーション方式で記述する。
この論文では、RADARセマンティックセグメンテーションに関連付けられた損失関数を備えたディープラーニングアーキテクチャを提案する。
また、シーン理解のためのLiDARとRADARセンサーの融合の研究を開放する手法も導入している。
最後に、この論文は、同期high-definition(hd)レーダー、lidar、カメラを備えたラジアルデータセットであるcollaborative contributionsを公開する。
また、物体検出と自由運転空間分割のためのマルチタスク学習を行いながら、RADAR信号処理パイプラインを推定する深層学習アーキテクチャを提案する。
関連論文リスト
- On Deep Learning for Geometric and Semantic Scene Understanding Using On-Vehicle 3D LiDAR [4.606106768645647]
3D LiDARポイントクラウドデータは、コンピュータビジョン、ロボティクス、自動運転におけるシーン認識に不可欠である。
我々は,パノラマ環境(近赤外)と反射率像を特徴とする,最初の高忠実度18チャネル3次元LiDARデータセットであるDurLARを提案する。
セグメンテーションの精度を向上させるために、Range-Aware Pointwise Distance Distribution (RAPiD) 機能と関連するRAPiD-Segアーキテクチャを導入する。
論文 参考訳(メタデータ) (2024-11-01T14:01:54Z) - Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - Improved LiDAR Odometry and Mapping using Deep Semantic Segmentation and
Novel Outliers Detection [1.0334138809056097]
高速移動プラットフォームのためのLOAMアーキテクチャに基づくリアルタイムLiDARオドメトリーとマッピングのための新しいフレームワークを提案する。
本フレームワークは,ディープラーニングモデルによって生成された意味情報を用いて,ポイント・ツー・ラインとポイント・ツー・プレーンのマッチングを改善する。
高速動作に対するLiDARオドメトリーのロバスト性に及ぼすマッチング処理の改善効果について検討した。
論文 参考訳(メタデータ) (2024-03-05T16:53:24Z) - Leveraging Self-Supervised Instance Contrastive Learning for Radar
Object Detection [7.728838099011661]
本稿では,レーダ物体検出装置を事前訓練する際,RCLを例に紹介する。
我々は、より少ないデータで学習するために、物体検出器のバックボーン、頭、首を事前訓練することを目指している。
論文 参考訳(メタデータ) (2024-02-13T12:53:33Z) - Bi-LRFusion: Bi-Directional LiDAR-Radar Fusion for 3D Dynamic Object
Detection [78.59426158981108]
この課題に対処し、動的オブジェクトの3D検出を改善するために、双方向LiDAR-Radar融合フレームワーク、Bi-LRFusionを導入する。
我々はnuScenesとORRデータセットに関する広範な実験を行い、我々のBi-LRFusionが動的オブジェクトを検出するための最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2023-06-02T10:57:41Z) - Multimodal Dataset from Harsh Sub-Terranean Environment with Aerosol
Particles for Frontier Exploration [55.41644538483948]
本稿では, エアロゾル粒子を用いた過酷で非構造的な地下環境からのマルチモーダルデータセットを提案する。
ロボットオペレーティング・システム(ROS)フォーマットのすべてのオンボードセンサーから、同期された生データ計測を含んでいる。
本研究の焦点は、時間的・空間的なデータの多様性を捉えることだけでなく、取得したデータに厳しい条件が及ぼす影響を示すことである。
論文 参考訳(メタデータ) (2023-04-27T20:21:18Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - Probabilistic Oriented Object Detection in Automotive Radar [8.281391209717103]
本稿では,レーダー物体検出のためのディープラーニングに基づくアルゴリズムを提案する。
我々は102544フレームの生レーダと同期LiDARデータを備えた新しいマルチモーダルデータセットを作成しました。
我々の最高性能レーダ検出モデルは、指向性IoU0.3で77.28%APを達成した。
論文 参考訳(メタデータ) (2020-04-11T05:29:32Z) - Deep Learning based Pedestrian Inertial Navigation: Methods, Dataset and
On-Device Inference [49.88536971774444]
慣性測定ユニット(IMU)は小型で安価でエネルギー効率が良く、スマートデバイスや移動ロボットに広く使われている。
正確で信頼性の高い歩行者ナビゲーションをサポートするために慣性データをエクスプロイトすることは、新しいインターネット・オブ・シングス・アプリケーションやサービスにとって重要なコンポーネントである。
我々は、深層学習に基づく慣性ナビゲーション研究のための最初の公開データセットであるOxIOD(OxIOD)を提示、リリースする。
論文 参考訳(メタデータ) (2020-01-13T04:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。