論文の概要: MixSup: Mixed-grained Supervision for Label-efficient LiDAR-based 3D
Object Detection
- arxiv url: http://arxiv.org/abs/2401.16305v1
- Date: Mon, 29 Jan 2024 17:05:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 14:05:23.066422
- Title: MixSup: Mixed-grained Supervision for Label-efficient LiDAR-based 3D
Object Detection
- Title(参考訳): MixSup: ラベル効率のよいLiDARベースの3Dオブジェクト検出のための混合粒度スーパービジョン
- Authors: Yuxue Yang, Lue Fan, Zhaoxiang Zhang
- Abstract要約: MixSupは、大量の安価な粗いラベルと、Mixed-fine Supervisionの限られた数の正確なラベルを同時に活用する、より実用的なパラダイムである。
MixSupは、安価なクラスタアノテーションと10%のボックスアノテーションを使用して、完全な教師付きパフォーマンスの97.31%を達成している。
- 参考スコア(独自算出の注目度): 59.1417156002086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Label-efficient LiDAR-based 3D object detection is currently dominated by
weakly/semi-supervised methods. Instead of exclusively following one of them,
we propose MixSup, a more practical paradigm simultaneously utilizing massive
cheap coarse labels and a limited number of accurate labels for Mixed-grained
Supervision. We start by observing that point clouds are usually textureless,
making it hard to learn semantics. However, point clouds are geometrically rich
and scale-invariant to the distances from sensors, making it relatively easy to
learn the geometry of objects, such as poses and shapes. Thus, MixSup leverages
massive coarse cluster-level labels to learn semantics and a few expensive
box-level labels to learn accurate poses and shapes. We redesign the label
assignment in mainstream detectors, which allows them seamlessly integrated
into MixSup, enabling practicality and universality. We validate its
effectiveness in nuScenes, Waymo Open Dataset, and KITTI, employing various
detectors. MixSup achieves up to 97.31% of fully supervised performance, using
cheap cluster annotations and only 10% box annotations. Furthermore, we propose
PointSAM based on the Segment Anything Model for automated coarse labeling,
further reducing the annotation burden. The code is available at
https://github.com/BraveGroup/PointSAM-for-MixSup.
- Abstract(参考訳): ラベル効率のよいLiDARベースの3Dオブジェクト検出は、現在弱い/半教師付き手法によって支配されている。
そこで我々は,MixSupを提案する。これは,大規模で安価な粗いラベルと,Mixed-fine Supervisionの限られた数の正確なラベルを同時に活用する,より実用的なパラダイムである。
私たちはまず、点雲が通常無テクスチャであり、意味論を学ぶのが難しいことを観察することから始めます。
しかし、点雲はセンサーからの距離に対して幾何学的に豊かでスケール不変であり、ポーズや形状などの物体の形状を学ぶのは比較的容易である。
このように、MixSupは大量の粗いクラスタレベルのラベルを活用してセマンティクスと高価なボックスレベルのラベルを学習し、正確なポーズと形状を学ぶ。
メインストリーム検出器のラベル割り当てを再設計し,mixsupにシームレスに統合することで,実用性と普遍性を実現する。
様々な検出器を用いて, nuScenes, Waymo Open Dataset, KITTIの有効性を検証する。
mixsupは、完全な教師付きパフォーマンスの最大97.31%を達成し、安価なクラスタアノテーションと10%のボックスアノテーションを使用する。
さらに,自動粗いラベル付けのためのセグメンテーションモデルに基づくポイントSAMを提案し,アノテーションの負担を軽減した。
コードはhttps://github.com/BraveGroup/PointSAM-for-MixSupで公開されている。
関連論文リスト
- Weakly Supervised 3D Instance Segmentation without Instance-level
Annotations [57.615325809883636]
3Dセマンティックシーン理解タスクは、ディープラーニングの出現によって大きな成功を収めた。
本稿では,分類的セマンティックラベルのみを監督対象とする,弱制御型3Dインスタンスセマンティクス手法を提案する。
分類的セマンティックラベルから擬似インスタンスラベルを生成することで,アノテーションコストの低減で既存の3Dインスタンスセグメンテーションの学習を支援することができる。
論文 参考訳(メタデータ) (2023-08-03T12:30:52Z) - You Only Need One Thing One Click: Self-Training for Weakly Supervised
3D Scene Understanding [107.06117227661204]
私たちはOne Thing One Click''を提案する。つまり、アノテーションはオブジェクトごとに1つのポイントをラベル付けするだけです。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
我々のモデルは、ポイントクラスタリング戦略を備えた3Dインスタンスセグメンテーションと互換性がある。
論文 参考訳(メタデータ) (2023-03-26T13:57:00Z) - MaskCon: Masked Contrastive Learning for Coarse-Labelled Dataset [19.45520684918576]
我々は、@textbfMask$ed $textbfCon$trastive Learning($textbfMaskCon$)と呼ばれる対照的な学習方法を提案する。
各サンプルに対して,本手法は,他のサンプルに対して粗いラベルを付与して軟質ラベルを生成する。
提案手法は, 各種データセットにおける現状よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-03-22T17:08:31Z) - Box2Seg: Learning Semantics of 3D Point Clouds with Box-Level
Supervision [65.19589997822155]
我々は3Dポイントクラウドのポイントレベルのセマンティクスをバウンディングボックスレベルの監視で学習するために,Box2Segと呼ばれるニューラルアーキテクチャを導入する。
提案するネットワークは,安価な,あるいは既定のバウンディングボックスレベルのアノテーションやサブクラウドレベルのタグでトレーニング可能であることを示す。
論文 参考訳(メタデータ) (2022-01-09T09:07:48Z) - Dense Supervision Propagation for Weakly Supervised Semantic Segmentation on 3D Point Clouds [59.63231842439687]
意味点クラウドセグメンテーションネットワークをトレーニングする。
同様の特徴を伝達し、2つのサンプルにまたがる勾配を再現するクロスサンプル機能再配置モジュールを提案する。
ラベルの10%と1%しか持たない弱教師付き手法では、完全教師付き手法と互換性のある結果が得られる。
論文 参考訳(メタデータ) (2021-07-23T14:34:57Z) - Multi-Path Region Mining For Weakly Supervised 3D Semantic Segmentation
on Point Clouds [67.0904905172941]
本稿では,3次元点雲上の弱ラベルを用いた点レベルの予測のための弱教師付きアプローチを提案する。
私たちの知る限りでは、これは、クラウドレベルの弱いラベルを生の3D空間で使用して、ポイントクラウドセマンティックセグメンテーションネットワークをトレーニングする最初の方法です。
論文 参考訳(メタデータ) (2020-03-29T14:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。