論文の概要: SPOT: Scalable 3D Pre-training via Occupancy Prediction for Autonomous
Driving
- arxiv url: http://arxiv.org/abs/2309.10527v2
- Date: Mon, 25 Sep 2023 06:41:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 22:43:18.511457
- Title: SPOT: Scalable 3D Pre-training via Occupancy Prediction for Autonomous
Driving
- Title(参考訳): SPOT: 自動運転のための作業予測によるスケーラブルな3D事前トレーニング
- Authors: Xiangchao Yan, Runjian Chen, Bo Zhang, Jiakang Yuan, Xinyu Cai, Botian
Shi, Wenqi Shao, Junchi Yan, Ping Luo, Yu Qiao
- Abstract要約: 職業予測は一般表現の学習に有望であることが示されている。
SPOTは、ポイントクラウド拡張にビーム再サンプリング技術を使用し、クラスバランス戦略を適用している。
- 参考スコア(独自算出の注目度): 84.22159537581742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Annotating 3D LiDAR point clouds for perception tasks including 3D object
detection and LiDAR semantic segmentation is notoriously
time-and-energy-consuming. To alleviate the burden from labeling, it is
promising to perform large-scale pre-training and fine-tune the pre-trained
backbone on different downstream datasets as well as tasks. In this paper, we
propose SPOT, namely Scalable Pre-training via Occupancy prediction for
learning Transferable 3D representations, and demonstrate its effectiveness on
various public datasets with different downstream tasks under the
label-efficiency setting. Our contributions are threefold: (1) Occupancy
prediction is shown to be promising for learning general representations, which
is demonstrated by extensive experiments on plenty of datasets and tasks. (2)
SPOT uses beam re-sampling technique for point cloud augmentation and applies
class-balancing strategies to overcome the domain gap brought by various LiDAR
sensors and annotation strategies in different datasets. (3) Scalable
pre-training is observed, that is, the downstream performance across all the
experiments gets better with more pre-training data. We believe that our
findings can facilitate understanding of LiDAR point clouds and pave the way
for future exploration in LiDAR pre-training. Codes and models will be
released.
- Abstract(参考訳): 3Dオブジェクト検出やLiDARセマンティックセグメンテーションを含む知覚タスクのための3D LiDARポイントクラウドの注釈付けは、時間とエネルギーを消費することで知られる。
ラベル付けの負担を軽減するため、大規模な事前トレーニングを行い、さまざまな下流データセットとタスクでトレーニング済みのバックボーンを微調整することを約束している。
本稿では,トランスファー可能な3次元表現を学習するための占有率予測によるスケーラブルな事前学習を提案し,ラベル効率設定下で下流タスクが異なる様々な公開データセットにおいてその効果を示す。
1) 作業予測は汎用表現の学習に有望であることが示され,多くのデータセットやタスクに関する広範な実験によって実証された。
2) SPOTは,ビーム再サンプリング技術を用いて点雲拡大を行い,様々なLiDARセンサによる領域ギャップを克服し,異なるデータセットにおけるアノテーション戦略を適用した。
(3) スケーラブルな事前トレーニング,すなわち,すべての実験におけるダウンストリームのパフォーマンスは,事前トレーニングデータによって向上する。
我々の発見はLiDAR点雲の理解を容易にし、LiDAR事前学習における将来の探索の道を開くことができると信じている。
コードとモデルがリリースされます。
関連論文リスト
- UniLiDAR: Bridge the domain gap among different LiDARs for continual
learning [10.10834581581264]
本稿では,異なるLiDARを扱える統一モデルを開発することを目的とする。
幾何的配向とセマンティックラベルマッピングを利用した占有予測パイプラインUniLiDARを提案する。
UniLiDARは、直接マージされたデータセットでトレーニングされたモデルと比較して、占有率予測のmIoUをそれぞれ15.7%、12.5%上昇させる。
論文 参考訳(メタデータ) (2024-03-13T13:23:05Z) - LETA: Learning Transferable Attribution for Generic Vision Explainer [78.96465840557056]
大規模画像データセットの汎用的説明器を開発し、その伝達可能性を活用して、下流タスクの様々な視覚モデルを説明する。
LETAは、ジェネリック・アナトリビューションに対するジェネリック・アナトリビュータの事前トレーニングをガイドし、下流のタスクを説明するために、トランストリビュータのルールベースの適応を導入する。
実験結果から,LETAは下流タスクのデータに対する追加トレーニングを必要とせず,これらのタスクを説明するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2023-12-23T21:49:23Z) - Self-Supervised Pre-Training Boosts Semantic Scene Segmentation on LiDAR
Data [0.0]
本稿では,Barlow Twins を用いた自己教師型エンコーダを訓練し,セマンティックシーンセグメンテーションのタスクにおいて,事前学習ネットワークとして使用することを提案する。
実験の結果,教師なし事前学習は教師付きタスクの微調整によって性能が向上することが示された。
論文 参考訳(メタデータ) (2023-09-05T11:29:30Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - COLA: COarse LAbel pre-training for 3D semantic segmentation of sparse
LiDAR datasets [3.8243923744440926]
転送学習は、2次元コンピュータビジョンにおいて、利用可能な大量のデータを活用し、高い性能を達成するための実証された技術である。
本研究では,スパース自動運転LiDARスキャンのリアルタイムな3次元セマンティックセマンティックセマンティックセグメンテーションを実現する。
我々は,COLA(Coarse label pre-training)と呼ばれる新しい事前訓練タスクを導入する。
論文 参考訳(メタデータ) (2022-02-14T17:19:23Z) - Spatio-temporal Self-Supervised Representation Learning for 3D Point
Clouds [96.9027094562957]
ラベルのないタスクから学習できる時間的表現学習フレームワークを導入する。
幼児が野生の視覚的データからどのように学ぶかに触発され、3Dデータから派生した豊かな手がかりを探索する。
STRLは3Dポイントクラウドシーケンスから2つの時間的関連フレームを入力として、空間データ拡張で変換し、不変表現を自己指導的に学習する。
論文 参考訳(メタデータ) (2021-09-01T04:17:11Z) - SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving [63.87272273293804]
VRNN(Variiational Recurrent Neural Networks)と呼ばれる生成モデルに基づく新しいLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
VRNNのスパースバージョンとラベルを必要としない効果的な自己監督型トレーニング方法を紹介します。
論文 参考訳(メタデータ) (2021-02-19T11:56:44Z) - PointContrast: Unsupervised Pre-training for 3D Point Cloud
Understanding [107.02479689909164]
本研究では,3次元表現学習の研究を支援することを目的とする。
教師なし事前学習が3Dシーンの大規模なソースセットに与える影響を計測する。
論文 参考訳(メタデータ) (2020-07-21T17:59:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。