論文の概要: InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling
- arxiv url: http://arxiv.org/abs/2007.08556v1
- Date: Thu, 16 Jul 2020 18:27:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 23:44:28.235057
- Title: InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling
- Title(参考訳): InfoFocus:動的情報モデリングによる自律走行のための3次元物体検出
- Authors: Jun Wang, Shiyi Lan, Mingfei Gao, Larry S. Davis
- Abstract要約: 動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
- 参考スコア(独自算出の注目度): 65.47126868838836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time 3D object detection is crucial for autonomous cars. Achieving
promising performance with high efficiency, voxel-based approaches have
received considerable attention. However, previous methods model the input
space with features extracted from equally divided sub-regions without
considering that point cloud is generally non-uniformly distributed over the
space. To address this issue, we propose a novel 3D object detection framework
with dynamic information modeling. The proposed framework is designed in a
coarse-to-fine manner. Coarse predictions are generated in the first stage via
a voxel-based region proposal network. We introduce InfoFocus, which improves
the coarse detections by adaptively refining features guided by the information
of point cloud density. Experiments are conducted on the large-scale nuScenes
3D detection benchmark. Results show that our framework achieves the
state-of-the-art performance with 31 FPS and improves our baseline
significantly by 9.0% mAP on the nuScenes test set.
- Abstract(参考訳): 自動運転車にはリアルタイム3dオブジェクト検出が不可欠だ。
高効率で有望なパフォーマンスを実現するために、voxelベースのアプローチが注目されている。
しかし、従来の手法は、点雲が一般に一様ではないことを考慮せずに、均等に分割された部分領域から特徴を抽出した入力空間をモデル化する。
そこで本稿では,動的情報モデリングを用いた新しい3次元物体検出フレームワークを提案する。
提案するフレームワークは粗大に設計されている。
第1段階では、voxelベースの地域提案ネットワークを介して粗い予測が生成される。
我々は,ポイントクラウド密度情報に導かれる特徴を適応的に洗練することにより,粗い検出を改善するインフォフォーカスを導入する。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
その結果,本フレームワークは31FPSで最先端性能を実現し,nuScenesテストセットで9.0%のmAP向上を実現した。
関連論文リスト
- PillarNeXt: Rethinking Network Designs for 3D Object Detection in LiDAR
Point Clouds [29.15589024703907]
本稿では,計算資源の割り当ての観点から,局所的な点集合体を再考する。
最も単純な柱ベースのモデルは、精度とレイテンシの両方を考慮して驚くほどよく機能することがわかった。
本研究は,3次元物体検出の高性能化のために,詳細な幾何学的モデリングが不可欠である,という一般的な直観に挑戦する。
論文 参考訳(メタデータ) (2023-05-08T17:59:14Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Structure Aware and Class Balanced 3D Object Detection on nuScenes
Dataset [0.0]
NuTonomyのnuScenesデータセットは、KITTIのような一般的なデータセットを大きく拡張している。
このモデルの局所化精度は、ダウンスケールされた特徴写像における空間情報の損失に影響される。
本稿では,3次元点雲の構造情報をフル活用した補助ネットワークを設計することで,CBGSモデルの性能を向上させることを提案する。
論文 参考訳(メタデータ) (2022-05-25T06:18:49Z) - Stereo Neural Vernier Caliper [57.187088191829886]
学習に基づくステレオ3Dオブジェクト検出のための新しいオブジェクト中心フレームワークを提案する。
初期3次元立方体推定値から改良された更新を予測する方法の問題に対処する。
提案手法は,KITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-21T14:36:07Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - SIENet: Spatial Information Enhancement Network for 3D Object Detection
from Point Cloud [20.84329063509459]
LiDARベースの3Dオブジェクト検出は、自動運転車に大きな影響を与える。
LiDARの固有特性の制限により、センサーから遠く離れた物体において、より少ない点が収集される。
そこで本研究では,SIENetという2段階の3次元物体検出フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T07:45:09Z) - SA-Det3D: Self-Attention Based Context-Aware 3D Object Detection [9.924083358178239]
本稿では,3次元物体検出におけるコンテキストモデリングのための2種類の自己注意法を提案する。
まず,現状のbev,voxel,ポイントベース検出器にペアワイズ自着機構を組み込む。
次に,ランダムにサンプリングされた位置の変形を学習することにより,最も代表的な特徴のサブセットをサンプリングするセルフアテンション変種を提案する。
論文 参考訳(メタデータ) (2021-01-07T18:30:32Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - Associate-3Ddet: Perceptual-to-Conceptual Association for 3D Point Cloud
Object Detection [64.2159881697615]
3Dポイント雲からの物体検出は依然として難しい課題だが、最近の研究ではディープラーニング技術によって封筒を推し進めている。
本稿では,特徴表現の堅牢性を高めるために,ドメイン適応のようなアプローチを提案する。
我々の単純で効果的なアプローチは、3Dポイントクラウドオブジェクト検出の性能を根本的に向上させ、最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-06-08T05:15:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。