論文の概要: Weakly Supervised LiDAR Semantic Segmentation via Scatter Image Annotation
- arxiv url: http://arxiv.org/abs/2404.12861v2
- Date: Mon, 12 Aug 2024 09:53:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 23:17:20.159765
- Title: Weakly Supervised LiDAR Semantic Segmentation via Scatter Image Annotation
- Title(参考訳): Scatter Image AnnotationによるLiDARセマンティックセマンティックセグメンテーションの弱化
- Authors: Yilong Chen, Zongyi Xu, xiaoshui Huang, Ruicheng Zhang, Xinqi Jiang, Xinbo Gao,
- Abstract要約: 画像アノテーションを用いたLiDARセマンティックセマンティックセマンティックセマンティクスを実装した。
また、パフォーマンスギャップを減らすための3つの重要な戦略を含むネットワークであるScatterNetを提案する。
本手法は,完全教師付き手法の95%以上の性能を達成するために,ラベル付き点の0.02%未満を必要とする。
- 参考スコア(独自算出の注目度): 38.715754110667916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weakly supervised LiDAR semantic segmentation has made significant strides with limited labeled data. However, most existing methods focus on the network training under weak supervision, while efficient annotation strategies remain largely unexplored. To tackle this gap, we implement LiDAR semantic segmentation using scatter image annotation, effectively integrating an efficient annotation strategy with network training. Specifically, we propose employing scatter images to annotate LiDAR point clouds, combining a pre-trained optical flow estimation network with a foundation image segmentation model to rapidly propagate manual annotations into dense labels for both images and point clouds. Moreover, we propose ScatterNet, a network that includes three pivotal strategies to reduce the performance gap caused by such annotations. Firstly, it utilizes dense semantic labels as supervision for the image branch, alleviating the modality imbalance between point clouds and images. Secondly, an intermediate fusion branch is proposed to obtain multimodal texture and structural features. Lastly, a perception consistency loss is introduced to determine which information needs to be fused and which needs to be discarded during the fusion process. Extensive experiments on the nuScenes and SemanticKITTI datasets have demonstrated that our method requires less than 0.02% of the labeled points to achieve over 95% of the performance of fully-supervised methods. Notably, our labeled points are only 5% of those used in the most advanced weakly supervised methods.
- Abstract(参考訳): 弱教師付きLiDARセマンティックセグメンテーションはラベル付きデータでかなりの進歩を遂げた。
しかし、既存のほとんどの手法は、弱い監督下でのネットワークトレーニングに重点を置いているが、効率的なアノテーション戦略はほとんど探索されていない。
このギャップに対処するために,スキャッタ画像アノテーションを用いたLiDARセマンティックセマンティックセマンティックセマンティクスを実装し,効率的なアノテーション戦略とネットワークトレーニングを効果的に統合する。
具体的には、予め訓練された光フロー推定ネットワークと基礎画像セグメンテーションモデルを組み合わせることで、手動アノテーションを画像と点雲の両方の濃密なラベルに迅速に伝播させることにより、LiDAR点雲の注釈付けに散乱画像を用いることを提案する。
さらに、このようなアノテーションによるパフォーマンスギャップを低減するために、3つの重要な戦略を含むネットワークであるScatterNetを提案する。
まず、高密度なセマンティックラベルをイメージブランチの監督に利用し、点雲と画像の間のモダリティの不均衡を緩和する。
次に,マルチモーダルなテクスチャと構造特性を得るため,中間核融合分岐を提案する。
最後に、どの情報を融合する必要があるか、融合プロセス中に破棄する必要があるかを決定するために、知覚整合性損失が導入される。
nuScenesとSemanticKITTIデータセットの大規模な実験により,完全教師付き手法の性能の95%以上を達成するためにラベル付きポイントの0.02%未満が必要であることが実証された。
特に、我々のラベル付きポイントは、最も先進的な弱教師付き手法で使用されるもののうち、わずか5%に過ぎない。
関連論文リスト
- 2D Feature Distillation for Weakly- and Semi-Supervised 3D Semantic
Segmentation [92.17700318483745]
合成訓練された2Dセマンティックセマンティックセグメンテーションネットワークから高レベル特徴情報を蒸留するアイデアに基づく画像誘導ネットワーク(IGNet)を提案する。
IGNetは、ScribbleKITTI上の弱い教師付きLiDARセマンティックセマンティックセグメンテーションの最先端の結果を達成し、8%のラベル付きポイントしか持たない完全な教師付きトレーニングに対して最大98%のパフォーマンスを誇っている。
論文 参考訳(メタデータ) (2023-11-27T07:57:29Z) - 3D Medical Image Segmentation with Sparse Annotation via Cross-Teaching
between 3D and 2D Networks [26.29122638813974]
本稿では,3次元ネットワークと2次元ネットワークの相互学習を用いて,スパースアノテーションから頑健に学習できるフレームワークを提案する。
MMWHSデータセットに対する実験結果から,本手法は最先端(SOTA)半教師付きセグメンテーション法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-30T15:26:17Z) - Weakly Supervised Semantic Segmentation for Large-Scale Point Cloud [69.36717778451667]
大規模なポイントクラウドセマンティックセグメンテーションのための既存の方法は、高価な、退屈でエラーを起こしやすい手動のポイントワイドアノテーションを必要とする。
この問題を解決するために,2つのコンポーネントを含む効果的な弱教師付き手法を提案する。
実験結果から,既存の弱教師付き手法と完全教師付き手法を比較検討した。
論文 参考訳(メタデータ) (2022-12-09T09:42:26Z) - LESS: Label-Efficient Semantic Segmentation for LiDAR Point Clouds [62.49198183539889]
我々は,LiDAR点雲を用いた屋外シーンのためのラベル効率のよいセマンティックセマンティックセマンティクスパイプラインを提案する。
本手法は,半弱教師付き学習を用いて,効率的なラベリング手法を設計する。
提案手法は,100%ラベル付き完全教師付き手法と比較して,さらに競争力が高い。
論文 参考訳(メタデータ) (2022-10-14T19:13:36Z) - Image Understands Point Cloud: Weakly Supervised 3D Semantic
Segmentation via Association Learning [59.64695628433855]
ラベルのない画像から補完的な情報を取り入れた3次元セグメンテーションのための新しいクロスモダリティ弱教師付き手法を提案する。
基本的に、ラベルの小さな部分のパワーを最大化するために、アクティブなラベリング戦略を備えたデュアルブランチネットワークを設計する。
提案手法は,1%未満のアクティブなアノテーションで,最先端の完全教師付き競合よりも優れていた。
論文 参考訳(メタデータ) (2022-09-16T07:59:04Z) - Scribble-Supervised Medical Image Segmentation via Dual-Branch Network
and Dynamically Mixed Pseudo Labels Supervision [15.414578073908906]
単純で効率的なスクリブル教師付き画像分割法を提案し,それを心臓MRIセグメント化に適用する。
このスクリブル・インスペクションと補助擬似ラベル・インスペクションを組み合わせることで、デュアルブランチ・ネットワークは、スクリブル・アノテーションからエンドツーエンドまで効率的に学習することができる。
論文 参考訳(メタデータ) (2022-03-04T02:50:30Z) - Semi-weakly Supervised Contrastive Representation Learning for Retinal
Fundus Images [0.2538209532048867]
本稿では,半弱化アノテーションを用いた表現学習のための,半弱化教師付きコントラスト学習フレームワークを提案する。
SWCLの移動学習性能を7つの公立網膜眼底データセットで実証的に検証した。
論文 参考訳(メタデータ) (2021-08-04T15:50:09Z) - One Thing One Click: A Self-Training Approach for Weakly Supervised 3D
Semantic Segmentation [78.36781565047656]
私たちは、アノテーションーがオブジェクトごとに1ポイントだけラベルを付ける必要があることを意味する「One Thing One Click」を提案します。
グラフ伝搬モジュールによって促進されるトレーニングとラベル伝搬を反復的に行う。
私たちの結果は、完全に監督されたものと同等です。
論文 参考訳(メタデータ) (2021-04-06T02:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。