論文の概要: Structure Aware and Class Balanced 3D Object Detection on nuScenes
Dataset
- arxiv url: http://arxiv.org/abs/2205.12519v1
- Date: Wed, 25 May 2022 06:18:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 12:17:14.660020
- Title: Structure Aware and Class Balanced 3D Object Detection on nuScenes
Dataset
- Title(参考訳): nuScenesデータセットを用いた構造認識とクラスバランス3次元オブジェクト検出
- Authors: Sushruth Nagesh, Asfiya Baig, Savitha Srinivasan
- Abstract要約: NuTonomyのnuScenesデータセットは、KITTIのような一般的なデータセットを大きく拡張している。
このモデルの局所化精度は、ダウンスケールされた特徴写像における空間情報の損失に影響される。
本稿では,3次元点雲の構造情報をフル活用した補助ネットワークを設計することで,CBGSモデルの性能を向上させることを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3-D object detection is pivotal for autonomous driving. Point cloud based
methods have become increasingly popular for 3-D object detection, owing to
their accurate depth information. NuTonomy's nuScenes dataset greatly extends
commonly used datasets such as KITTI in size, sensor modalities, categories,
and annotation numbers. However, it suffers from severe class imbalance. The
Class-balanced Grouping and Sampling paper addresses this issue and suggests
augmentation and sampling strategy. However, the localization precision of this
model is affected by the loss of spatial information in the downscaled feature
maps. We propose to enhance the performance of the CBGS model by designing an
auxiliary network, that makes full use of the structure information of the 3D
point cloud, in order to improve the localization accuracy. The detachable
auxiliary network is jointly optimized by two point-level supervisions, namely
foreground segmentation and center estimation. The auxiliary network does not
introduce any extra computation during inference, since it can be detached at
test time.
- Abstract(参考訳): 自律走行には3次元物体検出が不可欠である。
ポイントクラウドベースの手法は、正確な深度情報のために3次元物体検出に人気が高まっている。
NuTonomyのnuScenesデータセットは、サイズ、センサーのモジュラリティ、カテゴリ、アノテーション番号などの一般的なデータセットを大きく拡張している。
しかし、厳しい階級不均衡に悩まされている。
クラスバランスの取れたグループ化とサンプリングの論文はこの問題に対処し、強化とサンプリング戦略を提案する。
しかし、このモデルの局所化精度は、ダウンスケール特徴写像における空間情報の損失に影響される。
本稿では,3次元点雲の構造情報を完全に活用する補助ネットワークを設計し,局部化精度を向上させることにより,CBGSモデルの性能を向上させることを提案する。
分離可能な補助ネットワークは、フォアグラウンドセグメンテーションとセンター推定という2つのポイントレベルの監督によって共同最適化される。
補助ネットワークは、テスト時に切り離すことができるため、推論中に余分な計算を導入しない。
関連論文リスト
- Clustering based Point Cloud Representation Learning for 3D Analysis [80.88995099442374]
本稿では,ポイントクラウド分析のためのクラスタリングに基づく教師付き学習手法を提案する。
現在のデファクトでシーンワイドなトレーニングパラダイムとは異なり、我々のアルゴリズムは点埋め込み空間上でクラス内のクラスタリングを行う。
我々のアルゴリズムは、有名なポイントクラウドセグメンテーションデータセットの顕著な改善を示している。
論文 参考訳(メタデータ) (2023-07-27T03:42:12Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - 3D Object Detection Combining Semantic and Geometric Features from Point
Clouds [19.127930862527666]
そこで本研究では,SGNetと呼ばれる2次元物体検出装置を提案する。
VTPMはVoxel-Point-Based Moduleであり、最終的に点空間で3Dオブジェクト検出を実装している。
2021年9月19日時点で、KITTIデータセットでは、SGNetは、難易度の高いサイクリストの3DおよびBEV検出で1位、適度なサイクリストの3D検出では2位であった。
論文 参考訳(メタデータ) (2021-10-10T04:43:27Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z) - H3D: Benchmark on Semantic Segmentation of High-Resolution 3D Point
Clouds and textured Meshes from UAV LiDAR and Multi-View-Stereo [4.263987603222371]
本稿では,3つの方法でユニークな3次元データセットを提案する。
ヘシグハイム(ドイツ語: Hessigheim, H3D)は、ドイツの都市。
片手で3次元データ分析の分野での研究を促進するとともに、新しいアプローチの評価とランク付けを目的としている。
論文 参考訳(メタデータ) (2021-02-10T09:33:48Z) - SA-Det3D: Self-Attention Based Context-Aware 3D Object Detection [9.924083358178239]
本稿では,3次元物体検出におけるコンテキストモデリングのための2種類の自己注意法を提案する。
まず,現状のbev,voxel,ポイントベース検出器にペアワイズ自着機構を組み込む。
次に,ランダムにサンプリングされた位置の変形を学習することにより,最も代表的な特徴のサブセットをサンプリングするセルフアテンション変種を提案する。
論文 参考訳(メタデータ) (2021-01-07T18:30:32Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。