論文の概要: LidarAugment: Searching for Scalable 3D LiDAR Data Augmentations
- arxiv url: http://arxiv.org/abs/2210.13488v1
- Date: Mon, 24 Oct 2022 18:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 14:48:51.053123
- Title: LidarAugment: Searching for Scalable 3D LiDAR Data Augmentations
- Title(参考訳): LidarAugment: スケーラブルな3D LiDARデータ拡張の検索
- Authors: Zhaoqi Leng, Guowang Li, Chenxi Liu, Ekin Dogus Cubuk, Pei Sun, Tong
He, Dragomir Anguelov, Mingxing Tan
- Abstract要約: LidarAugmentは3Dオブジェクト検出のための検索ベースのデータ拡張戦略である。
LidarAugmentはさまざまなモデルアーキテクチャ用にカスタマイズできる。
畳み込みベースのUPillars/StarNet/RSNとトランスフォーマーベースのSWFormerを一貫して改善する。
- 参考スコア(独自算出の注目度): 55.45435708426761
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data augmentations are important in training high-performance 3D object
detectors for point clouds. Despite recent efforts on designing new data
augmentations, perhaps surprisingly, most state-of-the-art 3D detectors only
use a few simple data augmentations. In particular, different from 2D image
data augmentations, 3D data augmentations need to account for different
representations of input data and require being customized for different
models, which introduces significant overhead. In this paper, we resort to a
search-based approach, and propose LidarAugment, a practical and effective data
augmentation strategy for 3D object detection. Unlike previous approaches where
all augmentation policies are tuned in an exponentially large search space, we
propose to factorize and align the search space of each data augmentation,
which cuts down the 20+ hyperparameters to 2, and significantly reduces the
search complexity. We show LidarAugment can be customized for different model
architectures with different input representations by a simple 2D grid search,
and consistently improve both convolution-based UPillars/StarNet/RSN and
transformer-based SWFormer. Furthermore, LidarAugment mitigates overfitting and
allows us to scale up 3D detectors to much larger capacity. In particular, by
combining with latest 3D detectors, our LidarAugment achieves a new
state-of-the-art 74.8 mAPH L2 on Waymo Open Dataset.
- Abstract(参考訳): データ拡張は、ポイントクラウドのための高性能な3Dオブジェクト検出器のトレーニングにおいて重要である。
最近の新しいデータ拡張の設計努力にもかかわらず、おそらく驚くべきことに、ほとんどの最先端の3D検出器は単純なデータ拡張しか使っていない。
特に、2d画像データ拡張とは異なり、3dデータ拡張は入力データの異なる表現を考慮しなければならず、異なるモデル用にカスタマイズする必要がある。
本稿では,3次元物体検出のための実用的かつ効果的なデータ拡張戦略であるlidaraugmentを提案する。
指数関数的に大きな探索空間で全ての拡張ポリシーを調整した従来のアプローチとは異なり、20以上のハイパーパラメータを2に減らし、探索の複雑さを大幅に減らし、各データ拡張の探索空間を分解・調整することを提案する。
単純な2Dグリッド探索によって異なる入力表現を持つ異なるモデルアーキテクチャ向けにLidarAugmentをカスタマイズできることを示し、畳み込みベースのUPillars/StarNet/RSNと変換器ベースのSWFormerの両方を一貫して改善する。
さらに、LidarAugmentはオーバーフィッティングを軽減し、3D検出器をはるかに大きな容量にスケールアップすることができます。
特に、最新の3D検出器と組み合わせることで、Waymo Open Dataset上で新しい最先端の74.8 mAPH L2を実現しました。
関連論文リスト
- What Matters in Range View 3D Object Detection [15.147558647138629]
ライダーベースの知覚パイプラインは複雑なシーンを解釈するために3Dオブジェクト検出モデルに依存している。
過去のレンジビュー文献に提案されている複数の手法を使わずに、レンジビュー3次元オブジェクト検出モデル間の最先端を実現する。
論文 参考訳(メタデータ) (2024-07-23T18:42:37Z) - Implicit-Zoo: A Large-Scale Dataset of Neural Implicit Functions for 2D Images and 3D Scenes [65.22070581594426]
Implicit-Zoo"は、この分野の研究と開発を容易にするために、数千のGPUトレーニング日を必要とする大規模なデータセットである。
1)トランスモデルのトークン位置を学習すること、(2)NeRFモデルに関して直接3Dカメラが2D画像のポーズを取ること、である。
これにより、画像分類、セマンティックセグメンテーション、および3次元ポーズ回帰の3つのタスクすべてのパフォーマンスが向上し、研究のための新たな道が開けることになる。
論文 参考訳(メタデータ) (2024-06-25T10:20:44Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - DeepFusion: Lidar-Camera Deep Fusion for Multi-Modal 3D Object Detection [83.18142309597984]
ライダーとカメラは、自動運転における3D検出を補完する情報を提供する重要なセンサーである。
我々はDeepFusionという名前の汎用マルチモーダル3D検出モデル群を開発した。
論文 参考訳(メタデータ) (2022-03-15T18:46:06Z) - Exploring 2D Data Augmentation for 3D Monocular Object Detection [0.2936007114555107]
多くの標準的な2Dオブジェクト検出データ拡張技術は3Dボックスに拡張されない。
本研究では, 新規な視点合成を必要とせず, 単眼3次元検出のための2つの新しい増強法を提案する。
論文 参考訳(メタデータ) (2021-04-21T22:43:42Z) - Part-Aware Data Augmentation for 3D Object Detection in Point Cloud [33.59724834383291]
3Dラベルは2Dラベルよりも洗練され、よりリッチな構造情報を持っているため、より多彩で効果的なデータ拡張を可能にします。
本稿では,3Dラベルのリッチな情報をより有効活用できる部分認識型データ拡張(PA-AUG)を提案する。
PA-AUGは与えられたデータセットのパフォーマンスを向上するだけでなく、破損したデータに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2020-07-27T08:47:19Z) - Quantifying Data Augmentation for LiDAR based 3D Object Detection [139.64869289514525]
そこで本研究では,光検出・ランドング(LiDAR)に基づく3次元物体検出において一般的に使用される,様々なデータ拡張手法について光を当てた。
本研究では,グローバルな拡張技術がシーン全体の点雲に適用され,ローカルな拡張技術がシーン内の個々のオブジェクトに属する点にのみ適用される,様々なグローバルおよびローカルな拡張技術について検討する。
以上の結果から,2種類のデータ拡張はパフォーマンス向上につながるが,個々のオブジェクト翻訳などの拡張技術は非生産的であり,全体的なパフォーマンスを損なう可能性があることがわかった。
論文 参考訳(メタデータ) (2020-04-03T16:09:14Z) - Improving 3D Object Detection through Progressive Population Based
Augmentation [91.56261177665762]
本稿では3次元オブジェクト検出のためのデータ拡張ポリシーの設計を自動化するための最初の試みを示す。
このアルゴリズムは,探索空間を狭め,過去の反復で発見された最良のパラメータを採用することで,拡張戦略の最適化を学習する。
PPBAは, 拡張のないベースライン3次元検出モデルよりも最大10倍のデータ効率が高く, ラベル付きモデルよりもはるかに少ない精度で3次元検出モデルが競合精度を達成できる可能性が示唆された。
論文 参考訳(メタデータ) (2020-04-02T05:57:02Z) - Boundary-Aware Dense Feature Indicator for Single-Stage 3D Object
Detection from Point Clouds [32.916690488130506]
本稿では,3次元検出器が境界を意識して点雲の最も密集した領域に焦点を合わせるのを支援する普遍モジュールを提案する。
KITTIデータセットの実験により、DENFIはベースライン単段検出器の性能を著しく改善することが示された。
論文 参考訳(メタデータ) (2020-04-01T01:21:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。