論文の概要: Fully Sparse Long Range 3D Object Detection Using Range Experts and
Multimodal Virtual Points
- arxiv url: http://arxiv.org/abs/2310.04800v1
- Date: Sat, 7 Oct 2023 13:39:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 15:26:01.886428
- Title: Fully Sparse Long Range 3D Object Detection Using Range Experts and
Multimodal Virtual Points
- Title(参考訳): レンジエキスパートとマルチモーダル仮想点を用いた完全スパース長距離3次元物体検出
- Authors: Ajinkya Khoche, Laura Pereira S\'anchez, Nazre Batool, Sina Sharif
Mansouri, Patric Jensfelt
- Abstract要約: 長距離での3D物体検出は、自動運転車の安全性と効率を確保するために不可欠である。
現在最先端のLiDARベースの手法のほとんどは、レンジセンサーの間隔によって制限されている。
我々は2つのLiDARベースの3D検出ネットワークを提案し、その1つは近距離オブジェクトを専門とし、もう1つは長距離3D検出を行う。
- 参考スコア(独自算出の注目度): 4.914193018507932
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: 3D object detection at long-range is crucial for ensuring the safety and
efficiency of self-driving cars, allowing them to accurately perceive and react
to objects, obstacles, and potential hazards from a distance. But most current
state-of-the-art LiDAR based methods are limited by the sparsity of range
sensors, which generates a form of domain gap between points closer to and
farther away from the ego vehicle. Another related problem is the label
imbalance for faraway objects, which inhibits the performance of Deep Neural
Networks at long-range. Although image features could be beneficial for
long-range detections, and some recently proposed multimodal methods
incorporate image features, they do not scale well computationally at long
ranges or are limited by depth estimation accuracy. To address the above
limitations, we propose to combine two LiDAR based 3D detection networks, one
specializing at near to mid-range objects, and one at long-range 3D detection.
To train a detector at long range under a scarce label regime, we further
propose to weigh the loss according to the labelled objects' distance from ego
vehicle. To mitigate the LiDAR sparsity issue, we leverage Multimodal Virtual
Points (MVP), an image based depth completion algorithm, to enrich our data
with virtual points. Our method, combining two range experts trained with MVP,
which we refer to as RangeFSD, achieves state-of-the-art performance on the
Argoverse2 (AV2) dataset, with improvements at long range. The code will be
released soon.
- Abstract(参考訳): 長距離での3d物体検出は、自動運転車の安全性と効率の確保に不可欠であり、遠くから物体、障害物、潜在的な危険を正確に認識し、対応することができる。
しかし、現在最先端のLiDARベースの手法のほとんどは、射程センサーの間隔によって制限されている。
もう1つの関連する問題は、遠方の物体に対するラベルの不均衡であり、長距離でのディープニューラルネットワークのパフォーマンスを阻害する。
画像特徴は長距離検出に有益であり、最近提案された複数のマルチモーダル手法では画像特徴が組み込まれているが、それらは長距離で十分な計算能力を持たず、奥行き推定精度で制限されている。
上記の制約に対処するために,2つのLiDARベースの3D検出ネットワークと,近距離物体と遠距離物体とを組み合わせることを提案する。
希少なラベル環境下で長距離で検出器を訓練するために、ego車両からのラベル付き物体の距離に応じて損失を測定することを提案する。
lidarのスパーシティ問題を緩和するために、画像ベースの深度補完アルゴリズムであるmultimodal virtual points(mvp)を利用して、仮想ポイントでデータを豊かにします。
MVPでトレーニングされた2つの範囲の専門家を組み合わせることで、Argoverse2(AV2)データセット上で最先端のパフォーマンスを実現し、長距離で改善する。
コードはまもなくリリースされる。
関連論文リスト
- Improving Distant 3D Object Detection Using 2D Box Supervision [97.80225758259147]
遠方の物体の欠損した深さを回復するフレームワークであるLR3Dを提案する。
我々のフレームワークは汎用的であり、3D検出手法を広く活用する可能性がある。
論文 参考訳(メタデータ) (2024-03-14T09:54:31Z) - Far3D: Expanding the Horizon for Surround-view 3D Object Detection [15.045811199986924]
本稿では、Far3Dと呼ばれるスパースクエリベースの新しいフレームワークを提案する。
高品質な2Dオブジェクトの事前利用により、3Dグローバルクエリを補完する3D適応クエリを生成する。
課題であるArgoverse 2データセット上でのSoTA性能を実証し,150mの範囲をカバーした。
論文 参考訳(メタデータ) (2023-08-18T15:19:17Z) - An Empirical Analysis of Range for 3D Object Detection [70.54345282696138]
本稿では,長距離検出データセットArgoverse 2.0を用いた遠距離3次元検出の実験的検討を行った。
近接場LiDARの測定は、小さなボクセルによって密度が高く最適に符号化され、遠距離場の測定は疎く、大きなボクセルで符号化されている。
本研究では,33%の効率向上と3.2%のCDSの精度向上を図った。
論文 参考訳(メタデータ) (2023-08-08T05:29:26Z) - Super Sparse 3D Object Detection [48.684300007948906]
LiDARベースの3Dオブジェクト検出は、自動運転における長距離認識にますます貢献する。
高速な長距離検出を実現するため,まずフルスパース物体検出器FSDを提案する。
FSD++は、連続するフレーム間の点変化を示す残差点を生成する。
論文 参考訳(メタデータ) (2023-01-05T17:03:56Z) - Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - RAANet: Range-Aware Attention Network for LiDAR-based 3D Object
Detection with Auxiliary Density Level Estimation [11.180128679075716]
自律運転のためのLiDARデータから3Dオブジェクトを検出するために,Range-Aware Attention Network (RAANet) が開発された。
RAANetはより強力なBEV機能を抽出し、優れた3Dオブジェクト検出を生成する。
nuScenesデータセットの実験により,提案手法がLiDARを用いた3Dオブジェクト検出の最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-11-18T04:20:13Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - RSN: Range Sparse Net for Efficient, Accurate LiDAR 3D Object Detection [44.024530632421836]
Range Sparse Net (RSN) は、単純で効率的で正確な3Dオブジェクト検出器である。
RSNは、範囲画像からフォアグラウンドポイントを予測し、選択したフォアグラウンドポイントにスパース畳み込みを適用してオブジェクトを検出する。
RSNは、LiDARベースの歩行者と車両検出のためのAPH/LEVEL 1メトリクスに基づいて、リーダーボードで第1位にランクされている。
論文 参考訳(メタデータ) (2021-06-25T00:23:55Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection [62.34374949726333]
擬似LiDAR(PL)は、LiDARセンサに基づく手法と安価なステレオカメラに基づく手法の精度ギャップを劇的に減らした。
PLは最先端のディープニューラルネットワークと2D深度マップ出力を3Dポイントクラウド入力に変換することで3Dオブジェクト検出のための3D深度推定を組み合わせている。
我々は、PLパイプライン全体をエンドツーエンドにトレーニングできるように、差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを導入します。
論文 参考訳(メタデータ) (2020-04-07T02:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。