論文の概要: ALSO: Automotive Lidar Self-supervision by Occupancy estimation
- arxiv url: http://arxiv.org/abs/2212.05867v2
- Date: Tue, 13 Dec 2022 12:15:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 13:52:45.183204
- Title: ALSO: Automotive Lidar Self-supervision by Occupancy estimation
- Title(参考訳): ALSO:運転推定による自動車ライダー自己監督
- Authors: Alexandre Boulch, Corentin Sautier, Bj\"orn Michele, Gilles Puy,
Renaud Marlet
- Abstract要約: 本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
- 参考スコア(独自算出の注目度): 70.70557577874155
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new self-supervised method for pre-training the backbone of deep
perception models operating on point clouds. The core idea is to train the
model on a pretext task which is the reconstruction of the surface on which the
3D points are sampled, and to use the underlying latent vectors as input to the
perception head. The intuition is that if the network is able to reconstruct
the scene surface, given only sparse input points, then it probably also
captures some fragments of semantic information, that can be used to boost an
actual perception task. This principle has a very simple formulation, which
makes it both easy to implement and widely applicable to a large range of 3D
sensors and deep networks performing semantic segmentation or object detection.
In fact, it supports a single-stream pipeline, as opposed to most contrastive
learning approaches, allowing training on limited resources. We conducted
extensive experiments on various autonomous driving datasets, involving very
different kinds of lidars, for both semantic segmentation and object detection.
The results show the effectiveness of our method to learn useful
representations without any annotation, compared to existing approaches. Code
is available at https://github.com/valeoai/ALSO
- Abstract(参考訳): 本稿では,ポイントクラウド上で動作する深層知覚モデルのバックボーンを事前学習する新しい自己教師あり手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルを訓練し、基礎となる潜在ベクトルを知覚ヘッドへの入力として使用することである。
直感的には、もしネットワークがシーン表面を再構築できるなら、わずかな入力ポイントのみを与えられた場合、おそらく、実際の知覚タスクを促進するために使用できる意味情報の断片をキャプチャする。
この原理は非常に単純な定式化であり、実装が容易であり、多種多様な3dセンサーや、セマンティックセグメンテーションやオブジェクト検出を行うディープネットワークにも広く適用できる。
実際、ほとんどの対照的な学習アプローチとは対照的に、単一のストリームパイプラインをサポートし、限られたリソースでのトレーニングを可能にする。
セマンティクスセグメンテーションとオブジェクト検出の両面で,異なる種類のライダーを含む様々な自律運転データセットについて広範な実験を行った。
その結果,既存の手法と比較して,アノテーションなしで有用な表現を学習する手法の有効性が示された。
コードはhttps://github.com/valeoai/で入手できる。
関連論文リスト
- MAELi: Masked Autoencoder for Large-Scale LiDAR Point Clouds [13.426810473131642]
Masked AutoEncoder for LiDAR Point clouds (MAELi) は、復元中にエンコーダとデコーダの両方でLiDARポイントクラウドの空間性を直感的に活用する。
新たな再構築アプローチでは、MAELiは空空間と隠された空間を区別する。
これにより、MAELiは基礎となる3次元シーンの幾何学と意味論の理解を得る。
論文 参考訳(メタデータ) (2022-12-14T13:10:27Z) - Deepfake Detection via Joint Unsupervised Reconstruction and Supervised
Classification [25.84902508816679]
本稿では,再建作業と分類作業を同時に行うディープフェイク検出手法を提案する。
この方法は、あるタスクによって学習された情報を他のタスクと共有する。
提案手法は,一般的に使用されている3つのデータセットに対して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-11-24T05:44:26Z) - Paint and Distill: Boosting 3D Object Detection with Semantic Passing
Network [70.53093934205057]
ライダーやカメラセンサーからの3Dオブジェクト検出タスクは、自動運転に不可欠である。
本研究では,既存のライダーベース3D検出モデルの性能向上を図るために,SPNetという新しいセマンティックパスフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T12:35:34Z) - Unsupervised Representation Learning for 3D Point Cloud Data [66.92077180228634]
我々は、教師なしのポイントクラウド学習に対して、シンプルで効果的なアプローチを提案する。
特に、原点雲の優れたコントラストバージョンを生成する非常に有用な変換を同定する。
本研究では,3次元オブジェクト分類,形状部分分割,シーン分割の3つの下流タスクについて実験を行った。
論文 参考訳(メタデータ) (2021-10-13T10:52:45Z) - Self-supervised Audiovisual Representation Learning for Remote Sensing Data [96.23611272637943]
遠隔センシングにおける深層ニューラルネットワークの事前学習のための自己教師型アプローチを提案する。
ジオタグ付きオーディオ記録とリモートセンシングの対応を利用して、これは完全にラベルなしの方法で行われる。
提案手法は,既存のリモートセンシング画像の事前学習方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-02T07:50:50Z) - A Simple and Efficient Multi-task Network for 3D Object Detection and
Road Understanding [20.878931360708343]
シンプルで効率的なマルチタスクネットワークを通じて、すべての知覚タスクを実行できることを示します。
提案するネットワークであるLidarMTLは、生のLiDAR点雲を入力とし、3次元物体検出と道路理解のための6つの知覚出力を予測する。
論文 参考訳(メタデータ) (2021-03-06T08:00:26Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - PointContrast: Unsupervised Pre-training for 3D Point Cloud
Understanding [107.02479689909164]
本研究では,3次元表現学習の研究を支援することを目的とする。
教師なし事前学習が3Dシーンの大規模なソースセットに与える影響を計測する。
論文 参考訳(メタデータ) (2020-07-21T17:59:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。