論文の概要: DuEqNet: Dual-Equivariance Network in Outdoor 3D Object Detection for
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2302.13577v1
- Date: Mon, 27 Feb 2023 08:30:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 16:23:16.882940
- Title: DuEqNet: Dual-Equivariance Network in Outdoor 3D Object Detection for
Autonomous Driving
- Title(参考訳): DuEqNet: 自律運転のための屋外3次元物体検出における二重等分散ネットワーク
- Authors: Xihao Wang, Jiaming Lei, Hai Lan, Arafat Al-Jawari, Xian Wei
- Abstract要約: まず3次元物体検出ネットワークに等分散の概念を導入するDuEqNetを提案する。
我々のモデルの双対同変は、局所的および大域的両方の同変的特徴を抽出することができる。
本モデルでは, 配向精度が向上し, 予測効率が向上する。
- 参考スコア(独自算出の注目度): 4.489333751818157
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Outdoor 3D object detection has played an essential role in the environment
perception of autonomous driving. In complicated traffic situations, precise
object recognition provides indispensable information for prediction and
planning in the dynamic system, improving self-driving safety and reliability.
However, with the vehicle's veering, the constant rotation of the surrounding
scenario makes a challenge for the perception systems. Yet most existing
methods have not focused on alleviating the detection accuracy impairment
brought by the vehicle's rotation, especially in outdoor 3D detection. In this
paper, we propose DuEqNet, which first introduces the concept of equivariance
into 3D object detection network by leveraging a hierarchical embedded
framework. The dual-equivariance of our model can extract the equivariant
features at both local and global levels, respectively. For the local feature,
we utilize the graph-based strategy to guarantee the equivariance of the
feature in point cloud pillars. In terms of the global feature, the group
equivariant convolution layers are adopted to aggregate the local feature to
achieve the global equivariance. In the experiment part, we evaluate our
approach with different baselines in 3D object detection tasks and obtain
State-Of-The-Art performance. According to the results, our model presents
higher accuracy on orientation and better prediction efficiency. Moreover, our
dual-equivariance strategy exhibits the satisfied plug-and-play ability on
various popular object detection frameworks to improve their performance.
- Abstract(参考訳): 屋外3次元物体検出は、自動運転の環境認識において重要な役割を担っている。
複雑な交通状況において、正確な物体認識は、動的システムの予測と計画に不可欠の情報を提供し、自動運転の安全性と信頼性を向上させる。
しかし、車両の走行により、周囲のシナリオの定常的な回転は知覚システムにとって課題となる。
しかし、既存のほとんどの方法は、特に屋外の3D検出において、車両の回転による検出精度の低下を軽減することに重点を置いていない。
本稿では,階層型組込みフレームワークを用いて3次元物体検出ネットワークへの等価性の概念を最初に導入した dueqnet を提案する。
我々のモデルの双対同分散は、それぞれ局所レベルと大域レベルでの同変特徴を抽出することができる。
局所的な特徴については、グラフベースの戦略を用いて、点雲柱における特徴の等価性を保証する。
大域的特徴の観点からは、群同変畳み込み層を用いて局所的特徴を集約し、大域的同変を達成する。
実験部では, 3次元物体検出タスクにおけるベースラインの異なるアプローチを評価し, 最先端の性能を得る。
その結果,本モデルの方が方位精度が高く,予測効率も向上した。
さらに,本手法は,様々な人気オブジェクト検出フレームワークに満足度の高いプラグアンドプレイ能力を示し,性能を向上する。
関連論文リスト
- Cross-Cluster Shifting for Efficient and Effective 3D Object Detection
in Autonomous Driving [69.20604395205248]
本稿では,自律運転における3次元物体検出のための3次元点検出モデルであるShift-SSDを提案する。
我々は、ポイントベース検出器の表現能力を解き放つために、興味深いクロスクラスタシフト操作を導入する。
我々は、KITTI、ランタイム、nuScenesデータセットに関する広範な実験を行い、Shift-SSDの最先端性能を実証した。
論文 参考訳(メタデータ) (2024-03-10T10:36:32Z) - UniMODE: Unified Monocular 3D Object Detection [76.77182583753051]
我々は,鳥眼視(BEV)検出パラダイムに基づく検出器を構築した。
本稿では,この課題に起因する収束不安定性に対応するために,不均一なBEVグリッド設計を提案する。
統一検出器UniMODEが導出され、挑戦的なOmni3Dデータセットの先行技術を上回る。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - Towards Generalizable Multi-Camera 3D Object Detection via Perspective
Debiasing [28.874014617259935]
マルチカメラ3Dオブジェクト検出(MC3D-Det)は,鳥眼ビュー(BEV)の出現によって注目されている。
本研究では,3次元検出と2次元カメラ平面との整合性を両立させ,一貫した高精度な検出を実現する手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T15:31:28Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Group Equivariant BEV for 3D Object Detection [28.109682816379998]
3Dオブジェクト検出は注目され、実際の道路シナリオで継続的な改善が達成されている。
群同変理論に基づく群同変鳥眼ビューネットワーク(GeqBevNet)を提案する。
GeqBevNetは、実際の道路シーンの3Dオブジェクト検出において、より回転的な特徴を抽出することができる。
論文 参考訳(メタデータ) (2023-04-26T09:00:31Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - IAFA: Instance-aware Feature Aggregation for 3D Object Detection from a
Single Image [37.83574424518901]
単一の画像からの3Dオブジェクト検出は、自動運転において重要なタスクです。
本稿では,3次元物体検出の精度向上のために有用な情報を集約するインスタンス認識手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T05:47:52Z) - SA-Det3D: Self-Attention Based Context-Aware 3D Object Detection [9.924083358178239]
本稿では,3次元物体検出におけるコンテキストモデリングのための2種類の自己注意法を提案する。
まず,現状のbev,voxel,ポイントベース検出器にペアワイズ自着機構を組み込む。
次に,ランダムにサンプリングされた位置の変形を学習することにより,最も代表的な特徴のサブセットをサンプリングするセルフアテンション変種を提案する。
論文 参考訳(メタデータ) (2021-01-07T18:30:32Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。