論文の概要: Scene-aware Learning Network for Radar Object Detection
- arxiv url: http://arxiv.org/abs/2107.01469v1
- Date: Sat, 3 Jul 2021 17:19:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 15:01:17.618423
- Title: Scene-aware Learning Network for Radar Object Detection
- Title(参考訳): レーダ物体検出のためのシーン認識学習ネットワーク
- Authors: Zangwei Zheng, Xiangyu Yue, Kurt Keutzer, Alberto Sangiovanni
Vincentelli
- Abstract要約: Radarはロバスト性と低コストのため、ますます注目を集めている。
本稿では,高精度かつロバストな物体検出のためのシーン認識型レーダ学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 29.869186047966945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection is essential to safe autonomous or assisted driving.
Previous works usually utilize RGB images or LiDAR point clouds to identify and
localize multiple objects in self-driving. However, cameras tend to fail in bad
driving conditions, e.g. bad weather or weak lighting, while LiDAR scanners are
too expensive to get widely deployed in commercial applications. Radar has been
drawing more and more attention due to its robustness and low cost. In this
paper, we propose a scene-aware radar learning framework for accurate and
robust object detection. First, the learning framework contains branches
conditioning on the scene category of the radar sequence; with each branch
optimized for a specific type of scene. Second, three different 3D
autoencoder-based architectures are proposed for radar object detection and
ensemble learning is performed over the different architectures to further
boost the final performance. Third, we propose novel scene-aware sequence mix
augmentation (SceneMix) and scene-specific post-processing to generate more
robust detection results. In the ROD2021 Challenge, we achieved a final result
of average precision of 75.0% and an average recall of 81.0%. Moreover, in the
parking lot scene, our framework ranks first with an average precision of 97.8%
and an average recall of 98.6%, which demonstrates the effectiveness of our
framework.
- Abstract(参考訳): 物体検出は安全な自律運転や補助運転に不可欠である。
従来の作業は通常、RGBイメージやLiDARポイントクラウドを使用して、自動運転において複数のオブジェクトを特定し、ローカライズする。
しかし、例えば、カメラは運転状態が悪くなる傾向がある。
悪天候や照明が弱いが、LiDARスキャナーは高価すぎて商用アプリケーションに広くデプロイできない。
Radarはその堅牢性と低コストのために、ますます注目を集めている。
本稿では,高精度でロバストな物体検出のためのシーン認識レーダ学習フレームワークを提案する。
まず、学習フレームワークは、レーダシーケンスのシーンカテゴリを条件付けしたブランチを含み、各ブランチは特定のタイプのシーンに最適化される。
第2に、レーダーオブジェクト検出のための3つの異なる3次元オートエンコーダベースのアーキテクチャを提案し、最終性能をさらに向上するために異なるアーキテクチャ上でアンサンブル学習を行う。
第3に、より堅牢な検出結果を生成するために、シーン対応のシーンミックス強化(SceneMix)とシーン固有の後処理を提案する。
ROD2021 Challengeでは、平均精度75.0%、平均リコール81.0%の最終的な結果を得た。
さらに,駐車場の現場では,まず,平均精度97.8%,平均リコール率98.6%で評価し,その有効性を示した。
関連論文リスト
- RobuRCDet: Enhancing Robustness of Radar-Camera Fusion in Bird's Eye View for 3D Object Detection [68.99784784185019]
暗い照明や悪天候はカメラの性能を低下させる。
レーダーは騒音と位置のあいまいさに悩まされる。
本稿では,BEVの頑健な物体検出モデルであるRobuRCDetを提案する。
論文 参考訳(メタデータ) (2025-02-18T17:17:38Z) - Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Better Monocular 3D Detectors with LiDAR from the Past [64.6759926054061]
カメラベースの3D検出器は、画像の奥行きのあいまいさのため、LiDARベースの検出器に比べて性能が劣ることが多い。
本研究では,未ラベルの歴史的LiDARデータを活用することにより,単分子3D検出器の改良を図る。
複数の最先端モデルやデータセットに対して,9.66ミリ秒の追加レイテンシとストレージコストの低い,一貫性と大幅なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-04-08T01:38:43Z) - ROFusion: Efficient Object Detection using Hybrid Point-wise
Radar-Optical Fusion [14.419658061805507]
本稿では,自律走行シナリオにおける物体検出のためのハイブリッドなポイントワイドレーダ・オプティカル融合手法を提案する。
このフレームワークは、マルチモーダルな特徴表現を学習するために統合されたレンジドップラースペクトルと画像の両方からの密集したコンテキスト情報から恩恵を受ける。
論文 参考訳(メタデータ) (2023-07-17T04:25:46Z) - CRN: Camera Radar Net for Accurate, Robust, Efficient 3D Perception [20.824179713013734]
カメラレーダ融合フレームワークであるカメラレーダネット(CRN)を提案する。
CRNは、様々なタスクに対して意味的にリッチで空間的に正確な鳥眼視(BEV)特徴マップを生成する。
リアルタイム設定のCRNは20FPSで動作し、nuScenes上のLiDAR検出器に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2023-04-03T00:47:37Z) - RODNet: A Real-Time Radar Object Detection Network Cross-Supervised by
Camera-Radar Fused Object 3D Localization [30.42848269877982]
本稿では,カメラレーダ融合アルゴリズムによって相互に監視される深層レーダ物体検出ネットワーク RODNet を提案する。
提案したRDDNetは、レーダフィールド・オブ・ビュー(FoV)におけるオブジェクトの可能性を予測するための入力として、RF画像のシーケンスを用いる。
集中的な実験により,提案手法は平均精度86%,オブジェクト検出性能88%を達成した。
論文 参考訳(メタデータ) (2021-02-09T22:01:55Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - Radar+RGB Attentive Fusion for Robust Object Detection in Autonomous
Vehicles [0.5801044612920815]
提案アーキテクチャは,RGBカメラ画像とともにレーダ信号データを用いてロバスト検出ネットワークを構築することを目的としている。
BIRANetは、NuScenesデータセットの平均AP/ARを72.3/75.3%出力する。
RANetは69.6/71.9%の平均AP/ARを同じデータセットで提供する。
論文 参考訳(メタデータ) (2020-08-31T14:27:02Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - RODNet: Radar Object Detection Using Cross-Modal Supervision [34.33920572597379]
レーダーは通常、厳しい運転シナリオではカメラよりも頑丈である。
カメラが撮影したRGB画像とは異なり、レーダー信号からのセマンティック情報は明らかに抽出が困難である。
レーダ周波数データからオブジェクトを純粋に検出するディープレーダオブジェクト検出ネットワーク(RODNet)を提案する。
論文 参考訳(メタデータ) (2020-03-03T22:33:16Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。