論文の概要: Far3Det: Towards Far-Field 3D Detection
- arxiv url: http://arxiv.org/abs/2211.13858v1
- Date: Fri, 25 Nov 2022 02:07:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 14:31:06.057920
- Title: Far3Det: Towards Far-Field 3D Detection
- Title(参考訳): Far3Det:Far-Field 3D検出に向けて
- Authors: Shubham Gupta, Jeet Kanjani, Mengtian Li, Francesco Ferroni, James
Hays, Deva Ramanan, Shu Kong
- Abstract要約: 我々は、観測者から一定の距離を超える物体の遠距離3次元検出(Far3Det)の課題に焦点を当てる。
Far3Detは高速道路で動く自動運転車(AV)にとって特に重要である。
我々は,nuScenesデータセットからよく注釈付きシーンを抽出し,十分に注釈付き遠距離フィールド検証セットを導出する手法を開発した。
Far3Detの評価プロトコルを提案し,Far3Detの様々な3次元検出手法を提案する。
- 参考スコア(独自算出の注目度): 67.38417186733487
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We focus on the task of far-field 3D detection (Far3Det) of objects beyond a
certain distance from an observer, e.g., $>$50m. Far3Det is particularly
important for autonomous vehicles (AVs) operating at highway speeds, which
require detections of far-field obstacles to ensure sufficient braking
distances. However, contemporary AV benchmarks such as nuScenes underemphasize
this problem because they evaluate performance only up to a certain distance
(50m). One reason is that obtaining far-field 3D annotations is difficult,
particularly for lidar sensors that produce very few point returns for far-away
objects. Indeed, we find that almost 50% of far-field objects (beyond 50m)
contain zero lidar points. Secondly, current metrics for 3D detection employ a
"one-size-fits-all" philosophy, using the same tolerance thresholds for near
and far objects, inconsistent with tolerances for both human vision and stereo
disparities. Both factors lead to an incomplete analysis of the Far3Det task.
For example, while conventional wisdom tells us that high-resolution RGB
sensors should be vital for 3D detection of far-away objects, lidar-based
methods still rank higher compared to RGB counterparts on the current benchmark
leaderboards. As a first step towards a Far3Det benchmark, we develop a method
to find well-annotated scenes from the nuScenes dataset and derive a
well-annotated far-field validation set. We also propose a Far3Det evaluation
protocol and explore various 3D detection methods for Far3Det. Our result
convincingly justifies the long-held conventional wisdom that high-resolution
RGB improves 3D detection in the far-field. We further propose a simple yet
effective method that fuses detections from RGB and lidar detectors based on
non-maximum suppression, which remarkably outperforms state-of-the-art 3D
detectors in the far-field.
- Abstract(参考訳): 対象物の遠方3d検出(far3det)を観察者から一定の距離(例えば$50m)以上で行うタスクに注目した。
Far3Detは高速で走行する自動運転車(AV)にとって特に重要であり、十分なブレーキ距離を確保するには遠距離障害物を検出する必要がある。
しかし、nuScenesのような現代のAVベンチマークは、特定の距離(50m)までの性能を評価するため、この問題を強調している。
遠方からの3dアノテーションを得るのが難しく、特に遠方からの物体に対してわずかなポイントリターンを生成するlidarセンサーでは困難である。
実際、遠方体(50m以上)の約50%がライダー点を含まないことが分かる。
第二に、現在の3D検出のメトリクスは、人間の視覚とステレオの相違の両方に対する耐性に反し、近距離および遠距離のオブジェクトに対して同じ許容しきい値を使用する"1-size-fits-all"という哲学を採用している。
どちらの要因もfar3detタスクの不完全な解析につながる。
例えば、従来の知恵では、高解像度のRGBセンサーは遠距離物体の3D検出に不可欠であるべきだが、Lidarベースの手法は、現在のベンチマークリーダーボードのRGBセンサーよりも高い順位にある。
far3detベンチマークへの第一歩として、nuscenesデータセットから注釈付きシーンを見つけ、注釈付き遠方検証セットを導出する手法を開発した。
また,far3detの評価プロトコルを提案し,far3detの各種3次元検出法について検討する。
その結果,高分解能RGBが遠距離場における3次元検出を改善するという,長年にわたる従来の知恵を確実に正当化した。
さらに,rgbおよびlidar検出器からの検知を,遠方界における最先端の3d検出器を著しく上回る非最大抑制法に基づいて,簡便かつ効果的な手法を提案する。
関連論文リスト
- Towards Long-Range 3D Object Detection for Autonomous Vehicles [4.580520623362462]
長距離での3次元物体検出は、自動運転車の安全性と効率を確保するために不可欠である。
芸術的LiDARに基づく手法の現在のほとんどの状態は、長距離でのスパーシリティのため、範囲が限られている。
我々は,現在のLiDARを用いた3D検出器の長距離性能を改善する2つの方法を検討した。
論文 参考訳(メタデータ) (2023-10-07T13:39:46Z) - Far3D: Expanding the Horizon for Surround-view 3D Object Detection [15.045811199986924]
本稿では、Far3Dと呼ばれるスパースクエリベースの新しいフレームワークを提案する。
高品質な2Dオブジェクトの事前利用により、3Dグローバルクエリを補完する3D適応クエリを生成する。
課題であるArgoverse 2データセット上でのSoTA性能を実証し,150mの範囲をカバーした。
論文 参考訳(メタデータ) (2023-08-18T15:19:17Z) - FocalFormer3D : Focusing on Hard Instance for 3D Object Detection [97.56185033488168]
3次元物体検出における偽陰性(False negatives, FN)は、自動運転において潜在的に危険な状況を引き起こす可能性がある。
本研究では,マルチステージ方式でtextitFN を識別する汎用パイプラインである Hard Instance Probing (HIP) を提案する。
この手法をFocalFormer3Dとしてインスタンス化する。
論文 参考訳(メタデータ) (2023-08-08T20:06:12Z) - An Empirical Analysis of Range for 3D Object Detection [70.54345282696138]
本稿では,長距離検出データセットArgoverse 2.0を用いた遠距離3次元検出の実験的検討を行った。
近接場LiDARの測定は、小さなボクセルによって密度が高く最適に符号化され、遠距離場の測定は疎く、大きなボクセルで符号化されている。
本研究では,33%の効率向上と3.2%のCDSの精度向上を図った。
論文 参考訳(メタデータ) (2023-08-08T05:29:26Z) - Multi-Modal 3D Object Detection by Box Matching [109.43430123791684]
マルチモーダル3次元検出のためのボックスマッチング(FBMNet)による新しいフュージョンネットワークを提案する。
3Dオブジェクトと2Dオブジェクトの提案を学習することで、ROI特徴を組み合わせることで、検出のための融合を効果的に行うことができる。
論文 参考訳(メタデータ) (2023-05-12T18:08:51Z) - Multimodal Virtual Point 3D Detection [6.61319085872973]
ライダーをベースとしたセンサーは、現在の自動運転車を駆動する。
現在のLidarセンサーは、解像度とコストに関して従来のカラーカメラより20年遅れている。
本稿では,RGBセンサをLidarベースの3D認識にシームレスに融合する手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:58:01Z) - Is Pseudo-Lidar needed for Monocular 3D Object detection? [32.772699246216774]
我々は,擬似ライダー法のような深度事前学習の恩恵を受けることができるエンド・ツー・エンドの単分子3次元物体検出器DD3Dを提案する。
我々のアーキテクチャは、深度推定と3次元検出の効果的な情報伝達のために設計されており、ラベルなし事前学習データの量でスケールすることができる。
論文 参考訳(メタデータ) (2021-08-13T22:22:51Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。