論文の概要: LiDAR Cluster First and Camera Inference Later: A New Perspective
Towards Autonomous Driving
- arxiv url: http://arxiv.org/abs/2111.09799v2
- Date: Fri, 19 Nov 2021 15:24:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-22 12:26:36.803204
- Title: LiDAR Cluster First and Camera Inference Later: A New Perspective
Towards Autonomous Driving
- Title(参考訳): LiDARクラスタファーストとカメラ推論:自動運転への新たな展望
- Authors: Jiyang Chen, Simon Yu, Rohan Tabish, Ayoosh Bansal, Shengzhong Liu,
Tarek Abdelzaher, and Lui Sha
- Abstract要約: 本稿では,まずLiDARクラスタの概念を導入し,次にカメラ推論を行い,物体を検出して分類する,自律走行車(AV)のためのエンドツーエンドパイプラインを提案する。
まず、私たちのパイプラインは、AVに衝突するリスクの高い物体を検出することを優先し、AVが安全でない条件に反応する時間を増やす。
提案する新たなオブジェクト検出パイプラインは,カメラ推論のみと比較して,高いリスクオブジェクトの検出を優先すると同時に,同等の精度と平均速度を25%向上することを示す。
- 参考スコア(独自算出の注目度): 3.7678372667663393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection in state-of-the-art Autonomous Vehicles (AV) framework
relies heavily on deep neural networks. Typically, these networks perform
object detection uniformly on the entire camera LiDAR frames. However, this
uniformity jeopardizes the safety of the AV by giving the same priority to all
objects in the scenes regardless of their risk of collision to the AV. In this
paper, we present a new end-to-end pipeline for AV that introduces the concept
of LiDAR cluster first and camera inference later to detect and classify
objects. The benefits of our proposed framework are twofold. First, our
pipeline prioritizes detecting objects that pose a higher risk of collision to
the AV, giving more time for the AV to react to unsafe conditions. Second, it
also provides, on average, faster inference speeds compared to popular deep
neural network pipelines. We design our framework using the real-world
datasets, the Waymo Open Dataset, solving challenges arising from the
limitations of LiDAR sensors and object detection algorithms. We show that our
novel object detection pipeline prioritizes the detection of higher risk
objects while simultaneously achieving comparable accuracy and a 25% higher
average speed compared to camera inference only.
- Abstract(参考訳): 最先端自動運転車(av)フレームワークにおけるオブジェクト検出は、ディープニューラルネットワークに大きく依存する。
通常、これらのネットワークはカメラのLiDARフレーム全体に一様にオブジェクト検出を行う。
しかし、この均一性は、AVに衝突するリスクに関係なく、シーン内のすべてのオブジェクトに同じ優先度を与えることで、AVの安全性を損なう。
本稿では、まずLiDARクラスタの概念を導入し、次にカメラ推論を行い、オブジェクトを検出して分類するAVのための新しいエンドツーエンドパイプラインを提案する。
提案するフレームワークの利点は2つあります。
まず、当社のパイプラインでは、avに衝突するリスクが高いオブジェクトの検出を優先し、安全でない条件にavが反応する時間を増やします。
第2に、一般的なディープニューラルネットワークパイプラインと比較して、平均的な推論速度も速い。
実世界のデータセットであるWaymo Open Datasetを使用して,LiDARセンサとオブジェクト検出アルゴリズムの限界から生じる課題を解決するフレームワークを設計する。
提案する新たなオブジェクト検出パイプラインは,カメラ推論のみと比較して,高いリスクオブジェクトの検出を優先すると同時に,同等の精度と平均速度を25%向上することを示す。
関連論文リスト
- Online Collision Risk Estimation via Monocular Depth-Aware Object Detectors and Fuzzy Inference [6.856508678236828]
このフレームワークは、異なるアルゴリズムによって生成される予測を2つ受け取り、不整合とファジィ推論による衝突リスクを関連付ける。
IoU(Intersection-over-Union)と深度差測定(deep discrepancy measure)に基づいて,2組の予測の不一致が3次元物体検出器の安全性関連誤差と強く相関していることを実験的に検証した。
論文 参考訳(メタデータ) (2024-11-09T20:20:36Z) - Towards Unsupervised Object Detection From LiDAR Point Clouds [46.57452180314863]
OYSTER (Object Discovery via Spatio-Temporal Refinement) は、オブジェクトをゼロショットで検出できる。
距離対衝突に基づく新しい計画中心の知覚尺度を提案する。
論文 参考訳(メタデータ) (2023-11-03T16:12:01Z) - Multi-Task Cross-Modality Attention-Fusion for 2D Object Detection [6.388430091498446]
レーダとカメラデータの整合性を向上する2つの新しいレーダ前処理手法を提案する。
また,オブジェクト検出のためのMulti-Task Cross-Modality Attention-Fusion Network (MCAF-Net)を導入する。
我々のアプローチは、nuScenesデータセットにおける現在の最先端のレーダーカメラフュージョンベースのオブジェクト検出器よりも優れています。
論文 参考訳(メタデータ) (2023-07-17T09:26:13Z) - Long Range Object-Level Monocular Depth Estimation for UAVs [0.0]
本稿では,画像からモノクロ物体を長距離検出するための最先端手法の新たな拡張法を提案する。
まず、回帰タスクとして深度推定をモデル化する際、SigmoidおよびReLUライクエンコーディングを提案する。
次に,深度推定を分類問題とし,訓練損失の計算にソフトアルグマックス関数を導入する。
論文 参考訳(メタデータ) (2023-02-17T15:26:04Z) - Threatening Patch Attacks on Object Detection in Optical Remote Sensing
Images [55.09446477517365]
自然画像における物体検出における高度なパッチアタック(PA)は、ディープニューラルネットワークに基づく手法における大きな安全性の脆弱性を指摘した。
我々は,TPAと呼ばれる視覚的品質の低下を伴わない,より危険度の高いPAを提案する。
我々の知る限りでは、これがO-RSIにおけるオブジェクト検出におけるPAの研究の最初の試みであり、この研究が読者にこのトピックの研究に興味を持たせることを願っている。
論文 参考訳(メタデータ) (2023-02-13T02:35:49Z) - NVRadarNet: Real-Time Radar Obstacle and Free Space Detection for
Autonomous Driving [57.03126447713602]
本稿では,自動車のRADARセンサを用いて動的障害物や乾燥可能な自由空間を検出するディープニューラルネットワーク(DNN)を提案する。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、地理的領域にわたって優れた一般化を示す。
論文 参考訳(メタデータ) (2022-09-29T01:30:34Z) - Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - FOVEA: Foveated Image Magnification for Autonomous Navigation [53.69803081925454]
入力キャンバスを小さく保ちながら、ある領域を弾性的に拡大する注意的アプローチを提案する。
提案手法は,高速R-CNNより高速かつ微調整の少ない検出APを高速化する。
Argoverse-HD と BDD100K の自律走行データセットでは,提案手法が標準の高速 R-CNN を超越した検出APを微調整なしで促進することを示す。
論文 参考訳(メタデータ) (2021-08-27T03:07:55Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z) - YOdar: Uncertainty-based Sensor Fusion for Vehicle Detection with Camera
and Radar Sensors [4.396860522241306]
本稿では,カメラとレーダデータとのセンサ融合のための不確実性に基づく手法を提案する。
実験では、YOLOv3オブジェクト検出ネットワークと、カスタマイズされた1D$レーダセグメンテーションネットワークを組み合わせる。
実験の結果,この不確実性認識融合のアプローチは単一センサのベースラインに比べて性能が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-10-07T10:40:02Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。