論文の概要: AGO-Net: Association-Guided 3D Point Cloud Object Detection Network
- arxiv url: http://arxiv.org/abs/2208.11658v1
- Date: Wed, 24 Aug 2022 16:54:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 12:04:24.173355
- Title: AGO-Net: Association-Guided 3D Point Cloud Object Detection Network
- Title(参考訳): ago-net:3dポイントクラウドオブジェクト検出ネットワーク
- Authors: Liang Du, Xiaoqing Ye, Xiao Tan, Edward Johns, Bo Chen, Errui Ding,
Xiangyang Xue, Jianfeng Feng
- Abstract要約: ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
- 参考スコア(独自算出の注目度): 86.10213302724085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The human brain can effortlessly recognize and localize objects, whereas
current 3D object detection methods based on LiDAR point clouds still report
inferior performance for detecting occluded and distant objects: the point
cloud appearance varies greatly due to occlusion, and has inherent variance in
point densities along the distance to sensors. Therefore, designing feature
representations robust to such point clouds is critical. Inspired by human
associative recognition, we propose a novel 3D detection framework that
associates intact features for objects via domain adaptation. We bridge the gap
between the perceptual domain, where features are derived from real scenes with
sub-optimal representations, and the conceptual domain, where features are
extracted from augmented scenes that consist of non-occlusion objects with rich
detailed information. A feasible method is investigated to construct conceptual
scenes without external datasets. We further introduce an attention-based
re-weighting module that adaptively strengthens the feature adaptation of more
informative regions. The network's feature enhancement ability is exploited
without introducing extra cost during inference, which is plug-and-play in
various 3D detection frameworks. We achieve new state-of-the-art performance on
the KITTI 3D detection benchmark in both accuracy and speed. Experiments on
nuScenes and Waymo datasets also validate the versatility of our method.
- Abstract(参考訳): 人間の脳は、物体を無力に認識し、局所化することができるが、lidar point cloudに基づく現在の3dオブジェクト検出手法は、まだ、閉塞や遠方の物体の検出において劣る性能を報告している。
したがって、このような点クラウドに頑健な特徴表現を設計することは重要である。
人間の連想認識に触発されて,ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
知覚的領域、特徴が最適な表現を持つ実場面から派生する領域と、詳細な情報を持つ非排他的対象からなる拡張シーンから特徴を抽出する概念領域とのギャップを橋渡しする。
外部データセットを使わずに概念的なシーンを構築するための実現可能な手法を検討した。
さらに、より情報のある領域の特徴適応を適応的に強化する、注意に基づく再重み付けモジュールを導入する。
ネットワークの機能強化能力は、様々な3D検出フレームワークのプラグアンドプレイである推論中に余分なコストを導入することなく活用される。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
nuScenesとWaymoデータセットの実験も、我々の手法の汎用性を検証する。
関連論文リスト
- PatchContrast: Self-Supervised Pre-training for 3D Object Detection [14.603858163158625]
PatchContrastは、3Dオブジェクト検出のための新しい自己教師付きポイントクラウド事前学習フレームワークである。
提案手法は,3つの一般的な3次元検出データセットにおいて,既存の最先端モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-14T07:45:54Z) - Surface-biased Multi-Level Context 3D Object Detection [1.9723551683930771]
本研究は,高効率表面偏光特性抽出法(wang2022rbgnet)を用いて3次元点雲中の物体検出タスクに対処する。
本稿では,オブジェクト候補の正確な特徴表現を抽出し,点パッチやオブジェクト候補,グローバルシーンにおける自己注意を活用する3Dオブジェクト検出手法を提案する。
論文 参考訳(メタデータ) (2023-02-13T11:50:04Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - SIENet: Spatial Information Enhancement Network for 3D Object Detection
from Point Cloud [20.84329063509459]
LiDARベースの3Dオブジェクト検出は、自動運転車に大きな影響を与える。
LiDARの固有特性の制限により、センサーから遠く離れた物体において、より少ない点が収集される。
そこで本研究では,SIENetという2段階の3次元物体検出フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T07:45:09Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - Associate-3Ddet: Perceptual-to-Conceptual Association for 3D Point Cloud
Object Detection [64.2159881697615]
3Dポイント雲からの物体検出は依然として難しい課題だが、最近の研究ではディープラーニング技術によって封筒を推し進めている。
本稿では,特徴表現の堅牢性を高めるために,ドメイン適応のようなアプローチを提案する。
我々の単純で効果的なアプローチは、3Dポイントクラウドオブジェクト検出の性能を根本的に向上させ、最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-06-08T05:15:06Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。