論文の概要: Channel Boosting Feature Ensemble for Radar-based Object Detection
- arxiv url: http://arxiv.org/abs/2101.03531v1
- Date: Sun, 10 Jan 2021 12:20:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 12:26:59.317267
- Title: Channel Boosting Feature Ensemble for Radar-based Object Detection
- Title(参考訳): レーダに基づく物体検出のためのチャネルブースティング機能アンサンブル
- Authors: Shoaib Azam, Farzeen Munir and Moongu Jeon
- Abstract要約: レーダーベースの物体検出は、悪天候下でデプロイおよび使用される対応するセンサーモダリティを提供する。
提案手法の有効性をCOCO評価指標を用いて広く評価する。
- 参考スコア(独自算出の注目度): 6.810856082577402
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous vehicles are conceived to provide safe and secure services by
validating the safety standards as indicated by SOTIF-ISO/PAS-21448 (Safety of
the intended functionality). Keeping in this context, the perception of the
environment plays an instrumental role in conjunction with localization,
planning and control modules. As a pivotal algorithm in the perception stack,
object detection provides extensive insights into the autonomous vehicle's
surroundings. Camera and Lidar are extensively utilized for object detection
among different sensor modalities, but these exteroceptive sensors have
limitations in resolution and adverse weather conditions. In this work,
radar-based object detection is explored provides a counterpart sensor modality
to be deployed and used in adverse weather conditions. The radar gives complex
data; for this purpose, a channel boosting feature ensemble method with
transformer encoder-decoder network is proposed. The object detection task
using radar is formulated as a set prediction problem and evaluated on the
publicly available dataset in both good and good-bad weather conditions. The
proposed method's efficacy is extensively evaluated using the COCO evaluation
metric, and the best-proposed model surpasses its state-of-the-art counterpart
method by $12.55\%$ and $12.48\%$ in both good and good-bad weather conditions.
- Abstract(参考訳): 自動運転車は、SOTIF-ISO/PAS-21448(意図された機能の安全性)で示される安全基準を検証することにより、安全で安全なサービスを提供することが考えられている。
この文脈を保ちながら、環境の認識は、局在化、計画、制御モジュールと協調して重要な役割を果たす。
知覚スタックにおける重要なアルゴリズムとして、物体検出は自動運転車の周囲に関する広範な洞察を提供する。
カメラとライダーは、様々なセンサーモードの物体検出に広く利用されているが、これらの外部センサーは解像度と悪天候条件に制限がある。
本研究では,レーダーによる物体検出が検討され,気象条件下でのセンサの展開と使用を可能にする。
レーダは複雑なデータを与えるため、トランスフォーマーエンコーダデコーダネットワークを用いたチャネルブースティング機能アンサンブル法を提案する。
レーダを用いた物体検出タスクは、設定された予測問題として定式化され、良質および良質の天候条件下で、利用可能なデータセット上で評価される。
提案手法の有効性は,coco評価指標を用いて広範囲に評価され,良質な気象条件と良質な気象条件の両方において,その最新手法を2.55\%$および2.48\%$で上回った。
関連論文リスト
- Ensuring UAV Safety: A Vision-only and Real-time Framework for Collision Avoidance Through Object Detection, Tracking, and Distance Estimation [16.671696289301625]
本稿では,光学センサを用いた非協調航空車両の検出・追跡・距離推定のためのディープラーニングフレームワークを提案する。
本研究では,単眼カメラの入力のみを用いて,検出された空中物体の距離情報をリアルタイムで推定する手法を提案する。
論文 参考訳(メタデータ) (2024-05-10T18:06:41Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Leveraging Self-Supervised Instance Contrastive Learning for Radar
Object Detection [7.728838099011661]
本稿では,レーダ物体検出装置を事前訓練する際,RCLを例に紹介する。
我々は、より少ないデータで学習するために、物体検出器のバックボーン、頭、首を事前訓練することを目指している。
論文 参考訳(メタデータ) (2024-02-13T12:53:33Z) - Radar-Lidar Fusion for Object Detection by Designing Effective
Convolution Networks [18.17057711053028]
オブジェクト検出の強化のために,レーダデータとライダーデータを統合したデュアルブランチフレームワークを提案する。
この結果は、最先端の手法を1.89%ドルと2.61%ドルで上回り、好ましくない気象条件で上回っていることを示している。
論文 参考訳(メタデータ) (2023-10-30T10:18:40Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - ROFusion: Efficient Object Detection using Hybrid Point-wise
Radar-Optical Fusion [14.419658061805507]
本稿では,自律走行シナリオにおける物体検出のためのハイブリッドなポイントワイドレーダ・オプティカル融合手法を提案する。
このフレームワークは、マルチモーダルな特徴表現を学習するために統合されたレンジドップラースペクトルと画像の両方からの密集したコンテキスト情報から恩恵を受ける。
論文 参考訳(メタデータ) (2023-07-17T04:25:46Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - RaLiBEV: Radar and LiDAR BEV Fusion Learning for Anchor Box Free Object
Detection Systems [13.046347364043594]
自動運転では、LiDARとレーダーは環境認識に不可欠である。
最近の最先端の研究は、レーダーとLiDARの融合が悪天候の堅牢な検出につながることを明らかにしている。
鳥眼ビュー融合学習に基づくアンカーボックスフリー物体検出システムを提案する。
論文 参考訳(メタデータ) (2022-11-11T10:24:42Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。