論文の概要: Few-shot 3D LiDAR Semantic Segmentation for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2302.08785v1
- Date: Fri, 17 Feb 2023 09:52:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 15:11:05.770412
- Title: Few-shot 3D LiDAR Semantic Segmentation for Autonomous Driving
- Title(参考訳): 自動運転のための3次元LiDARセマンティックセグメンテーション
- Authors: Jilin Mei, Junbao Zhou and Yu Hu
- Abstract要約: 本稿では,新しいクラスとベースクラスを同時に予測する3次元LiDARセマンティックセマンティックセマンティックセマンティクス法を提案する。
本手法は,背景曖昧性の問題を解決するために,一般化された少数ショットセマンティックセマンティックセグメンテーションを提案する。
- 参考スコア(独自算出の注目度): 3.0033590064167317
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In autonomous driving, the novel objects and lack of annotations challenge
the traditional 3D LiDAR semantic segmentation based on deep learning. Few-shot
learning is a feasible way to solve these issues. However, currently few-shot
semantic segmentation methods focus on camera data, and most of them only
predict the novel classes without considering the base classes. This setting
cannot be directly applied to autonomous driving due to safety concerns. Thus,
we propose a few-shot 3D LiDAR semantic segmentation method that predicts both
novel classes and base classes simultaneously. Our method tries to solve the
background ambiguity problem in generalized few-shot semantic segmentation. We
first review the original cross-entropy and knowledge distillation losses, then
propose a new loss function that incorporates the background information to
achieve 3D LiDAR few-shot semantic segmentation. Extensive experiments on
SemanticKITTI demonstrate the effectiveness of our method.
- Abstract(参考訳): 自律運転において、新しいオブジェクトとアノテーションの欠如は、ディープラーニングに基づく従来の3D LiDARセマンティックセグメンテーションに挑戦する。
数少ない学習は、これらの問題を解決するための実現可能な方法です。
しかし,カメラデータに焦点をあてるセマンティックセマンティックセマンティクス手法はほとんどなく,その多くがベースクラスを考慮せずに新しいクラスを予測している。
この設定は安全上の懸念から、自動運転には直接適用できない。
そこで本研究では,新しいクラスとベースクラスの両方を同時に予測する3次元LiDARセマンティックセマンティックセグメンテーション手法を提案する。
提案手法は, 一般化された少数ショット意味セグメンテーションにおいて, 背景曖昧性問題を解決することを試みる。
まず,元のクロスエントロピーと知識蒸留の損失を概観し,背景情報を組み込んで3次元LiDARの少数ショットセマンティックセマンティックセグメンテーションを実現する新たな損失関数を提案する。
SemanticKITTIの大規模な実験により,本手法の有効性が示された。
関連論文リスト
- TeFF: Tracking-enhanced Forgetting-free Few-shot 3D LiDAR Semantic Segmentation [10.628870775939161]
本稿では,LiDARデータの時間的連続性を利用して,現在の数ショットセマンティックセマンティックセマンティクスの限界に対処する。
追跡モデルを用いて、LiDARフレームのシーケンスから擬似地下構造を生成し、新しいクラスで学習するデータセットの能力を向上する。
トレーニング可能なパラメータの数を減らし,新しいクラスへの適応性を向上しつつ,ベースクラス上でのモデル性能を保留するテクニックであるLoRAを取り入れた。
論文 参考訳(メタデータ) (2024-08-28T09:18:36Z) - Label-Efficient 3D Brain Segmentation via Complementary 2D Diffusion Models with Orthogonal Views [10.944692719150071]
相補的な2次元拡散モデルを用いた新しい3次元脳分割法を提案する。
私たちのゴールは、個々の主題に対して完全なラベルを必要とせずに、信頼性の高いセグメンテーション品質を達成することです。
論文 参考訳(メタデータ) (2024-07-17T06:14:53Z) - Exploring the Untouched Sweeps for Conflict-Aware 3D Segmentation Pretraining [41.145598142457686]
LiDARカメラによる3D画像の事前学習は、3D知覚タスクと関連する応用に有意な可能性を示唆している。
未探索フレームからLiDAR-画像ペアを精巧に選択するための,ビジョン・ファウンデーション・モデル駆動型サンプル探索モジュールを提案する。
我々の手法は、既存の最先端の事前訓練フレームワークを3つの主要な公道走行データセットで一貫して上回っている。
論文 参考訳(メタデータ) (2024-07-10T08:46:29Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - 3D Open-Vocabulary Panoptic Segmentation with 2D-3D Vision-Language Distillation [40.49322398635262]
本稿では,3次元オープンボキャブラリパノプタセグメンテーションのための最初の手法を提案する。
我々のモデルは、学習可能なLiDAR機能と密集した凍結視覚CLIP機能との融合を利用する。
本稿では,オブジェクトレベルの蒸留損失とボクセルレベルの蒸留損失の2つの新しい損失関数を提案する。
論文 参考訳(メタデータ) (2024-01-04T18:39:32Z) - S4C: Self-Supervised Semantic Scene Completion with Neural Fields [54.35865716337547]
3Dセマンティックシーン理解はコンピュータビジョンにおける根本的な課題である。
SSCの現在の手法は、集約されたLiDARスキャンに基づいて、一般に3D地上真実に基づいて訓練されている。
本研究は,S4Cと呼ばれる3次元地上真理データに依存しないSSCに対して,初めての自己教師型アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-11T14:19:05Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Unsupervised Multi-View Object Segmentation Using Radiance Field
Propagation [55.9577535403381]
本稿では,未ラベルのシーンの多視点画像のみを考慮し,再構成中の3次元オブジェクトのセグメント化に新たなアプローチを提案する。
提案手法の核となるのは,2方向光度損失を持つ個々の物体の放射界に対する新しい伝搬戦略である。
我々の知る限り、RFPはニューラルレイディアンスフィールド(NeRF)のための3次元シーンオブジェクトセグメンテーションに取り組むための最初の教師なしアプローチである。
論文 参考訳(メタデータ) (2022-10-02T11:14:23Z) - 3D Registration for Self-Occluded Objects in Context [66.41922513553367]
このシナリオを効果的に処理できる最初のディープラーニングフレームワークを紹介します。
提案手法はインスタンスセグメンテーションモジュールとポーズ推定モジュールから構成される。
これにより、高価な反復手順を必要とせず、ワンショットで3D登録を行うことができます。
論文 参考訳(メタデータ) (2020-11-23T08:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。