論文の概要: CO^3: Cooperative Unsupervised 3D Representation Learning for Autonomous
Driving
- arxiv url: http://arxiv.org/abs/2206.04028v1
- Date: Wed, 8 Jun 2022 17:37:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-09 14:36:48.117131
- Title: CO^3: Cooperative Unsupervised 3D Representation Learning for Autonomous
Driving
- Title(参考訳): CO^3: 自律運転のための協調的教師なし3次元表現学習
- Authors: Runjian Chen, Yao Mu, Runsen Xu, Wenqi Shao, Chenhan Jiang, Hang Xu,
Zhenguo Li, Ping Luo
- Abstract要約: 本研究では,協調コントラスト学習(Cooperative Contrastive Learning)とコンテキスト形状予測(Contextual Shape Prediction)というCO3を提案する。
我々はCO3が屋外の場面でLiDAR点雲の理解を容易にすると信じている。
- 参考スコア(独自算出の注目度): 57.16921612272783
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised contrastive learning for indoor-scene point clouds has achieved
great successes. However, unsupervised learning point clouds in outdoor scenes
remains challenging because previous methods need to reconstruct the whole
scene and capture partial views for the contrastive objective. This is
infeasible in outdoor scenes with moving objects, obstacles, and sensors. In
this paper, we propose CO^3, namely Cooperative Contrastive Learning and
Contextual Shape Prediction, to learn 3D representation for outdoor-scene point
clouds in an unsupervised manner. CO^3 has several merits compared to existing
methods. (1) It utilizes LiDAR point clouds from vehicle-side and
infrastructure-side to build views that differ enough but meanwhile maintain
common semantic information for contrastive learning, which are more
appropriate than views built by previous methods. (2) Alongside the contrastive
objective, shape context prediction is proposed as pre-training goal and brings
more task-relevant information for unsupervised 3D point cloud representation
learning, which are beneficial when transferring the learned representation to
downstream detection tasks. (3) As compared to previous methods, representation
learned by CO^3 is able to be transferred to different outdoor scene dataset
collected by different type of LiDAR sensors. (4) CO^3 improves current
state-of-the-art methods on both Once and KITTI datasets by up to 2.58 mAP.
Codes and models will be released. We believe CO^3 will facilitate
understanding LiDAR point clouds in outdoor scene.
- Abstract(参考訳): 屋内-シーンのポイントクラウドに対する教師なしのコントラスト学習は、大きな成功を収めた。
しかし、従来の手法ではシーン全体を再構築し、対照的な目的のために部分的な視点を捉える必要があるため、屋外シーンにおける教師なし学習点雲は依然として困難である。
これは移動物体、障害物、センサーを備えた屋外シーンでは実現不可能である。
本稿では,アウトドア・シーン・ポイント・クラウドの3次元表現を教師なしで学習するために,協調的なコントラスト学習と文脈形状予測を行うco^3を提案する。
CO^3は既存の方法と比較していくつかの利点がある。
1)車両側とインフラストラクチャ側からlidarポイントクラウドを使用して,従来手法で構築したビューよりも適切なコントラスト学習のための共通意味情報を維持しながら,十分に異なるビューを構築する。
2) 対照的な目的に加えて, 形状コンテキスト予測を事前学習目標として提案し, 学習した表現を下流検出タスクに転送する場合に有用である, 教師なしの3Dポイントクラウド表現学習により多くのタスク関連情報をもたらす。
3) 従来の手法と比較して,CO^3で学習した表現は,異なる種類のLiDARセンサで収集した屋外シーンのデータセットに転送することができる。
(4)CO^3は、EvenとKITTIの両方のデータセットにおける最先端の手法を最大2.58mAP改善する。
コードとモデルがリリースされます。
我々はCO^3が屋外シーンにおけるLiDAR点雲の理解を容易にすると信じている。
関連論文リスト
- GS-PT: Exploiting 3D Gaussian Splatting for Comprehensive Point Cloud Understanding via Self-supervised Learning [15.559369116540097]
ポイントクラウドの自己教師型学習は、ラベルのない3Dデータを活用して、手動のアノテーションに頼ることなく意味のある表現を学習することを目的としている。
本稿では,3Dガウススプラッティング(3DGS)をポイントクラウドの自己教師型学習に初めて統合したGS-PTを提案する。
我々のパイプラインは、トランスフォーマーを自己教師付き事前学習のバックボーンとして利用し、3DGSによる新しいコントラスト学習タスクを導入している。
論文 参考訳(メタデータ) (2024-09-08T03:46:47Z) - HVDistill: Transferring Knowledge from Images to Point Clouds via Unsupervised Hybrid-View Distillation [106.09886920774002]
本稿では,HVDistillと呼ばれるハイブリッドビューに基づく知識蒸留フレームワークを提案する。
提案手法は,スクラッチからトレーニングしたベースラインに対して一貫した改善を実現し,既存のスキームを大幅に上回っている。
論文 参考訳(メタデータ) (2024-03-18T14:18:08Z) - Self-supervised Learning of LiDAR 3D Point Clouds via 2D-3D Neural Calibration [107.61458720202984]
本稿では,自律走行シーンにおける3次元知覚を高めるための,新しい自己教師型学習フレームワークを提案する。
本稿では,画像とポイントクラウドデータの領域ギャップを埋めるために,学習可能な変換アライメントを提案する。
我々は剛性ポーズを推定するために密度の高い2D-3D対応を確立する。
論文 参考訳(メタデータ) (2024-01-23T02:41:06Z) - Generalized 3D Self-supervised Learning Framework via Prompted
Foreground-Aware Feature Contrast [38.34558139249363]
本研究では,事前学習において,より効率的なポイントクラウド表現を学習するための,FAC++フレームワークの汎用的フォアグラウンド対応機能コントラストを提案する。
我々は,3次元セグメント/オブジェクト間の過度な識別を防止し,前景と背景の区別を促進する。
コントラストペアは,事前訓練中に前景領域間の明瞭な対応を捉える。
論文 参考訳(メタデータ) (2023-03-11T11:42:01Z) - CrossPoint: Self-Supervised Cross-Modal Contrastive Learning for 3D
Point Cloud Understanding [2.8661021832561757]
CrossPointは、転送可能な3Dポイントクラウド表現を学習するための、単純なクロスモーダルコントラスト学習アプローチである。
提案手法は,従来の教師なし学習手法よりも,3次元オブジェクト分類やセグメンテーションなど,さまざまな下流タスクにおいて優れていた。
論文 参考訳(メタデータ) (2022-03-01T18:59:01Z) - Unsupervised Representation Learning for 3D Point Cloud Data [66.92077180228634]
我々は、教師なしのポイントクラウド学習に対して、シンプルで効果的なアプローチを提案する。
特に、原点雲の優れたコントラストバージョンを生成する非常に有用な変換を同定する。
本研究では,3次元オブジェクト分類,形状部分分割,シーン分割の3つの下流タスクについて実験を行った。
論文 参考訳(メタデータ) (2021-10-13T10:52:45Z) - Spatio-temporal Self-Supervised Representation Learning for 3D Point
Clouds [96.9027094562957]
ラベルのないタスクから学習できる時間的表現学習フレームワークを導入する。
幼児が野生の視覚的データからどのように学ぶかに触発され、3Dデータから派生した豊かな手がかりを探索する。
STRLは3Dポイントクラウドシーケンスから2つの時間的関連フレームを入力として、空間データ拡張で変換し、不変表現を自己指導的に学習する。
論文 参考訳(メタデータ) (2021-09-01T04:17:11Z) - PointContrast: Unsupervised Pre-training for 3D Point Cloud
Understanding [107.02479689909164]
本研究では,3次元表現学習の研究を支援することを目的とする。
教師なし事前学習が3Dシーンの大規模なソースセットに与える影響を計測する。
論文 参考訳(メタデータ) (2020-07-21T17:59:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。