論文の概要: Far3Det: Towards Far-Field 3D Detection
- arxiv url: http://arxiv.org/abs/2211.13858v1
- Date: Fri, 25 Nov 2022 02:07:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 14:31:06.057920
- Title: Far3Det: Towards Far-Field 3D Detection
- Title(参考訳): Far3Det:Far-Field 3D検出に向けて
- Authors: Shubham Gupta, Jeet Kanjani, Mengtian Li, Francesco Ferroni, James
Hays, Deva Ramanan, Shu Kong
- Abstract要約: 我々は、観測者から一定の距離を超える物体の遠距離3次元検出(Far3Det)の課題に焦点を当てる。
Far3Detは高速道路で動く自動運転車(AV)にとって特に重要である。
我々は,nuScenesデータセットからよく注釈付きシーンを抽出し,十分に注釈付き遠距離フィールド検証セットを導出する手法を開発した。
Far3Detの評価プロトコルを提案し,Far3Detの様々な3次元検出手法を提案する。
- 参考スコア(独自算出の注目度): 67.38417186733487
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We focus on the task of far-field 3D detection (Far3Det) of objects beyond a
certain distance from an observer, e.g., $>$50m. Far3Det is particularly
important for autonomous vehicles (AVs) operating at highway speeds, which
require detections of far-field obstacles to ensure sufficient braking
distances. However, contemporary AV benchmarks such as nuScenes underemphasize
this problem because they evaluate performance only up to a certain distance
(50m). One reason is that obtaining far-field 3D annotations is difficult,
particularly for lidar sensors that produce very few point returns for far-away
objects. Indeed, we find that almost 50% of far-field objects (beyond 50m)
contain zero lidar points. Secondly, current metrics for 3D detection employ a
"one-size-fits-all" philosophy, using the same tolerance thresholds for near
and far objects, inconsistent with tolerances for both human vision and stereo
disparities. Both factors lead to an incomplete analysis of the Far3Det task.
For example, while conventional wisdom tells us that high-resolution RGB
sensors should be vital for 3D detection of far-away objects, lidar-based
methods still rank higher compared to RGB counterparts on the current benchmark
leaderboards. As a first step towards a Far3Det benchmark, we develop a method
to find well-annotated scenes from the nuScenes dataset and derive a
well-annotated far-field validation set. We also propose a Far3Det evaluation
protocol and explore various 3D detection methods for Far3Det. Our result
convincingly justifies the long-held conventional wisdom that high-resolution
RGB improves 3D detection in the far-field. We further propose a simple yet
effective method that fuses detections from RGB and lidar detectors based on
non-maximum suppression, which remarkably outperforms state-of-the-art 3D
detectors in the far-field.
- Abstract(参考訳): 対象物の遠方3d検出(far3det)を観察者から一定の距離(例えば$50m)以上で行うタスクに注目した。
Far3Detは高速で走行する自動運転車(AV)にとって特に重要であり、十分なブレーキ距離を確保するには遠距離障害物を検出する必要がある。
しかし、nuScenesのような現代のAVベンチマークは、特定の距離(50m)までの性能を評価するため、この問題を強調している。
遠方からの3dアノテーションを得るのが難しく、特に遠方からの物体に対してわずかなポイントリターンを生成するlidarセンサーでは困難である。
実際、遠方体(50m以上)の約50%がライダー点を含まないことが分かる。
第二に、現在の3D検出のメトリクスは、人間の視覚とステレオの相違の両方に対する耐性に反し、近距離および遠距離のオブジェクトに対して同じ許容しきい値を使用する"1-size-fits-all"という哲学を採用している。
どちらの要因もfar3detタスクの不完全な解析につながる。
例えば、従来の知恵では、高解像度のRGBセンサーは遠距離物体の3D検出に不可欠であるべきだが、Lidarベースの手法は、現在のベンチマークリーダーボードのRGBセンサーよりも高い順位にある。
far3detベンチマークへの第一歩として、nuscenesデータセットから注釈付きシーンを見つけ、注釈付き遠方検証セットを導出する手法を開発した。
また,far3detの評価プロトコルを提案し,far3detの各種3次元検出法について検討する。
その結果,高分解能RGBが遠距離場における3次元検出を改善するという,長年にわたる従来の知恵を確実に正当化した。
さらに,rgbおよびlidar検出器からの検知を,遠方界における最先端の3d検出器を著しく上回る非最大抑制法に基づいて,簡便かつ効果的な手法を提案する。
関連論文リスト
- Long-Tailed 3D Detection via 2D Late Fusion [48.04585341882589]
自律走行車(AV)は、安全航法のために、一般的なクラスと稀なクラスの両方からオブジェクトを正確に検出する必要がある。
現代のLiDARベースの3D検出器は、疎いLiDAR点からの物体の認識が難しいため、希少なクラスでは不十分である。
RGB画像は、そのような曖昧さを解決するための視覚的証拠を提供し、RGB-LiDAR融合の研究を動機付けている。
論文 参考訳(メタデータ) (2023-12-18T07:14:25Z) - Fully Sparse Long Range 3D Object Detection Using Range Experts and
Multimodal Virtual Points [4.914193018507932]
長距離での3D物体検出は、自動運転車の安全性と効率を確保するために不可欠である。
現在最先端のLiDARベースの手法のほとんどは、レンジセンサーの間隔によって制限されている。
我々は2つのLiDARベースの3D検出ネットワークを提案し、その1つは近距離オブジェクトを専門とし、もう1つは長距離3D検出を行う。
論文 参考訳(メタデータ) (2023-10-07T13:39:46Z) - Far3D: Expanding the Horizon for Surround-view 3D Object Detection [15.045811199986924]
本稿では、Far3Dと呼ばれるスパースクエリベースの新しいフレームワークを提案する。
高品質な2Dオブジェクトの事前利用により、3Dグローバルクエリを補完する3D適応クエリを生成する。
課題であるArgoverse 2データセット上でのSoTA性能を実証し,150mの範囲をカバーした。
論文 参考訳(メタデータ) (2023-08-18T15:19:17Z) - FocalFormer3D : Focusing on Hard Instance for 3D Object Detection [97.56185033488168]
3次元物体検出における偽陰性(False negatives, FN)は、自動運転において潜在的に危険な状況を引き起こす可能性がある。
本研究では,マルチステージ方式でtextitFN を識別する汎用パイプラインである Hard Instance Probing (HIP) を提案する。
この手法をFocalFormer3Dとしてインスタンス化する。
論文 参考訳(メタデータ) (2023-08-08T20:06:12Z) - An Empirical Analysis of Range for 3D Object Detection [70.54345282696138]
本稿では,長距離検出データセットArgoverse 2.0を用いた遠距離3次元検出の実験的検討を行った。
近接場LiDARの測定は、小さなボクセルによって密度が高く最適に符号化され、遠距離場の測定は疎く、大きなボクセルで符号化されている。
本研究では,33%の効率向上と3.2%のCDSの精度向上を図った。
論文 参考訳(メタデータ) (2023-08-08T05:29:26Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - Multimodal Virtual Point 3D Detection [6.61319085872973]
ライダーをベースとしたセンサーは、現在の自動運転車を駆動する。
現在のLidarセンサーは、解像度とコストに関して従来のカラーカメラより20年遅れている。
本稿では,RGBセンサをLidarベースの3D認識にシームレスに融合する手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:58:01Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。