論文の概要: ProposalContrast: Unsupervised Pre-training for LiDAR-based 3D Object
Detection
- arxiv url: http://arxiv.org/abs/2207.12654v1
- Date: Tue, 26 Jul 2022 04:45:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 12:49:16.794398
- Title: ProposalContrast: Unsupervised Pre-training for LiDAR-based 3D Object
Detection
- Title(参考訳): ProposalContrast: LiDARによる3Dオブジェクト検出のための教師なし事前学習
- Authors: Junbo Yin, Dingfu Zhou, Liangjun Zhang, Jin Fang, Cheng-Zhong Xu,
Jianbing Shen, and Wenguan Wang
- Abstract要約: ProposalContrastは、教師なしのポイントクラウド事前トレーニングフレームワークである。
地域提案と対比することで、堅牢な3D表現を学習する。
ProposalContrastは様々な3D検出器で検証される。
- 参考スコア(独自算出の注目度): 114.54835359657707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing approaches for unsupervised point cloud pre-training are constrained
to either scene-level or point/voxel-level instance discrimination. Scene-level
methods tend to lose local details that are crucial for recognizing the road
objects, while point/voxel-level methods inherently suffer from limited
receptive field that is incapable of perceiving large objects or context
environments. Considering region-level representations are more suitable for 3D
object detection, we devise a new unsupervised point cloud pre-training
framework, called ProposalContrast, that learns robust 3D representations by
contrasting region proposals. Specifically, with an exhaustive set of region
proposals sampled from each point cloud, geometric point relations within each
proposal are modeled for creating expressive proposal representations. To
better accommodate 3D detection properties, ProposalContrast optimizes with
both inter-cluster and inter-proposal separation, i.e., sharpening the
discriminativeness of proposal representations across semantic classes and
object instances. The generalizability and transferability of ProposalContrast
are verified on various 3D detectors (i.e., PV-RCNN, CenterPoint, PointPillars
and PointRCNN) and datasets (i.e., KITTI, Waymo and ONCE).
- Abstract(参考訳): 教師なしのクラウド事前トレーニングのための既存のアプローチは、シーンレベルまたはポイント/ボクセルレベルのインスタンス識別に制約される。
シーンレベルのメソッドは、道路オブジェクトを認識するのに不可欠な局所的な詳細を失う傾向があるが、ポイント/ボクセルレベルのメソッドは本質的に、大きなオブジェクトやコンテキスト環境を知覚できない限定的な受容的フィールドに悩まされる。
領域レベルの表現が3dオブジェクト検出に適していることを考慮すると、プロポーザルコントラストと呼ばれる新しい教師なしのポイントクラウド事前学習フレームワークを考案し、領域の提案を対比してロバストな3d表現を学習する。
具体的には、各点クラウドからサンプリングされた領域提案の総括セットを用いて、各提案における幾何学的点関係をモデル化し、表現的提案表現を作成する。
3d検出特性をよりよく適応するために、promisecontrastはクラスタ間分離とプロポーザル間分離、すなわちセマンティッククラスとオブジェクトインスタンス間のプロポーザル表現の識別性向上の両方を最適化する。
提案コントラストの一般化性と伝達性は、様々な3次元検出器(PV-RCNN, CenterPoint, PointPillars, PointRCNN)とデータセット(KITTI, Waymo, ONCE)で検証される。
関連論文リスト
- Weakly Supervised Open-Vocabulary Object Detection [31.605276665964787]
本稿では、従来のWSODを拡張するために、弱教師付きオープン語彙オブジェクト検出フレームワーク、すなわちWSOVODを提案する。
これを実現するために、データセットレベルの特徴適応、画像レベルの有意なオブジェクトローカライゼーション、地域レベルの視覚言語アライメントを含む3つの重要な戦略を検討する。
論文 参考訳(メタデータ) (2023-12-19T18:59:53Z) - PatchContrast: Self-Supervised Pre-training for 3D Object Detection [14.603858163158625]
PatchContrastは、3Dオブジェクト検出のための新しい自己教師付きポイントクラウド事前学習フレームワークである。
提案手法は,3つの一般的な3次元検出データセットにおいて,既存の最先端モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-14T07:45:54Z) - Open-Vocabulary Point-Cloud Object Detection without 3D Annotation [62.18197846270103]
オープン語彙の3Dポイントクラウド検出の目的は、任意のテキスト記述に基づいて新しいオブジェクトを識別することである。
様々な物体を局所化するための一般的な表現を学習できる点クラウド検出器を開発した。
また,画像,点雲,テキストのモダリティを結合する,非偏差三重項クロスモーダルコントラスト学習を提案する。
論文 参考訳(メタデータ) (2023-04-03T08:22:02Z) - Exploring Active 3D Object Detection from a Generalization Perspective [58.597942380989245]
不確実性に基づくアクティブな学習ポリシーは、ポイントクラウドの情報性とボックスレベルのアノテーションコストの間のトレードオフのバランスを取れません。
冗長な3次元境界ボックスラベルの点群を階層的にフィルタリングするtextscCrbを提案する。
実験により,提案手法が既存のアクティブラーニング戦略より優れていることが示された。
論文 参考訳(メタデータ) (2023-01-23T02:43:03Z) - 3D-SPS: Single-Stage 3D Visual Grounding via Referred Point Progressive
Selection [35.5386998382886]
3Dビジュアルグラウンドは、自由形式の言語記述に従って、3Dポイントクラウドシーンで参照対象物を見つけることを目的としている。
従来の手法は主に2段階のパラダイム、すなわち言語非関連検出とクロスモーダルマッチングに従う。
本稿では,言語指導を用いてキーポイントを段階的に選択し,ターゲットを直接特定する3Dシングルステージ参照ポイントプログレッシブ選択法を提案する。
論文 参考訳(メタデータ) (2022-04-13T09:46:27Z) - ImpDet: Exploring Implicit Fields for 3D Object Detection [74.63774221984725]
我々は、境界ボックス回帰を暗黙の関数として見る新しい視点を導入する。
これは、Implicit DetectionまたはImpDetと呼ばれる提案されたフレームワークにつながります。
我々のImpDetは、異なる局所的な3次元空間の点に特定の値を割り当て、高品質な境界を生成することができる。
論文 参考訳(メタデータ) (2022-03-31T17:52:12Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - Oriented RepPoints for Aerial Object Detection [10.818838437018682]
本稿では,オブジェクト指向RepPointsという,空中物体検出のための新しい手法を提案する。
具体的には、任意指向オブジェクトの幾何学的および空間的情報を取得するために、適応点の集合を用いることを提案する。
教師付き学習を容易にするために,適応点を配向境界ボックスに明示的にマッピングする指向変換関数を提案する。
論文 参考訳(メタデータ) (2021-05-24T06:18:23Z) - 3D Spatial Recognition without Spatially Labeled 3D [127.6254240158249]
Weakly-supervised framework for Point cloud Recognitionを紹介する。
We show that WyPR can detected and segment objects in point cloud data without access any space labels at training time。
論文 参考訳(メタデータ) (2021-05-13T17:58:07Z) - 3D-MPA: Multi Proposal Aggregation for 3D Semantic Instance Segmentation [26.169985423367393]
3D-MPAは、3Dポイントクラウド上のインスタンスセグメンテーションの方法である。
同じオブジェクトセンターに投票したグループ化されたポイント機能から提案機能を学びます。
グラフ畳み込みネットワークは、プロトゾス間関係を導入する。
論文 参考訳(メタデータ) (2020-03-30T23:28:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。