論文の概要: Few-shot 3D LiDAR Semantic Segmentation for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2302.08785v1
- Date: Fri, 17 Feb 2023 09:52:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 15:11:05.770412
- Title: Few-shot 3D LiDAR Semantic Segmentation for Autonomous Driving
- Title(参考訳): 自動運転のための3次元LiDARセマンティックセグメンテーション
- Authors: Jilin Mei, Junbao Zhou and Yu Hu
- Abstract要約: 本稿では,新しいクラスとベースクラスを同時に予測する3次元LiDARセマンティックセマンティックセマンティックセマンティクス法を提案する。
本手法は,背景曖昧性の問題を解決するために,一般化された少数ショットセマンティックセマンティックセグメンテーションを提案する。
- 参考スコア(独自算出の注目度): 3.0033590064167317
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In autonomous driving, the novel objects and lack of annotations challenge
the traditional 3D LiDAR semantic segmentation based on deep learning. Few-shot
learning is a feasible way to solve these issues. However, currently few-shot
semantic segmentation methods focus on camera data, and most of them only
predict the novel classes without considering the base classes. This setting
cannot be directly applied to autonomous driving due to safety concerns. Thus,
we propose a few-shot 3D LiDAR semantic segmentation method that predicts both
novel classes and base classes simultaneously. Our method tries to solve the
background ambiguity problem in generalized few-shot semantic segmentation. We
first review the original cross-entropy and knowledge distillation losses, then
propose a new loss function that incorporates the background information to
achieve 3D LiDAR few-shot semantic segmentation. Extensive experiments on
SemanticKITTI demonstrate the effectiveness of our method.
- Abstract(参考訳): 自律運転において、新しいオブジェクトとアノテーションの欠如は、ディープラーニングに基づく従来の3D LiDARセマンティックセグメンテーションに挑戦する。
数少ない学習は、これらの問題を解決するための実現可能な方法です。
しかし,カメラデータに焦点をあてるセマンティックセマンティックセマンティクス手法はほとんどなく,その多くがベースクラスを考慮せずに新しいクラスを予測している。
この設定は安全上の懸念から、自動運転には直接適用できない。
そこで本研究では,新しいクラスとベースクラスの両方を同時に予測する3次元LiDARセマンティックセマンティックセグメンテーション手法を提案する。
提案手法は, 一般化された少数ショット意味セグメンテーションにおいて, 背景曖昧性問題を解決することを試みる。
まず,元のクロスエントロピーと知識蒸留の損失を概観し,背景情報を組み込んで3次元LiDARの少数ショットセマンティックセマンティックセグメンテーションを実現する新たな損失関数を提案する。
SemanticKITTIの大規模な実験により,本手法の有効性が示された。
関連論文リスト
- Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - S4C: Self-Supervised Semantic Scene Completion with Neural Fields [54.35865716337547]
3Dセマンティックシーン理解はコンピュータビジョンにおける根本的な課題である。
SSCの現在の手法は、集約されたLiDARスキャンに基づいて、一般に3D地上真実に基づいて訓練されている。
本研究は,S4Cと呼ばれる3次元地上真理データに依存しないSSCに対して,初めての自己教師型アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-11T14:19:05Z) - TFNet: Exploiting Temporal Cues for Fast and Accurate LiDAR Semantic
Segmentation [22.992844146140563]
範囲画像に基づくLiDARセマンティックセマンティックセグメンテーション手法であるTFNetを提案する。
従来のスキャンから有用な情報を抽出し,現在のスキャンと統合するために,時間融合層を組み込んだ。
次に、誤り予測を正すために、最大投票に基づく後処理手法を設計する。
論文 参考訳(メタデータ) (2023-09-14T16:48:31Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Domain generalization of 3D semantic segmentation in autonomous driving [5.240890834159944]
その重要性にもかかわらず、ドメインの一般化は3次元自律運転セマンティックセグメンテーションの場合、比較的未解明である。
本稿では、最先端の手法を検証し、レーザーイメージング検出とラングング(LiDAR)ドメインシフトに対処することの難しさを論じ、この応用のための最初のベンチマークを示す。
また,この領域の一般化に対処するために設計された最初の手法を提案し,これを3DLabelPropと呼ぶ。
論文 参考訳(メタデータ) (2022-12-07T12:44:41Z) - Unsupervised Multi-View Object Segmentation Using Radiance Field
Propagation [55.9577535403381]
本稿では,未ラベルのシーンの多視点画像のみを考慮し,再構成中の3次元オブジェクトのセグメント化に新たなアプローチを提案する。
提案手法の核となるのは,2方向光度損失を持つ個々の物体の放射界に対する新しい伝搬戦略である。
我々の知る限り、RFPはニューラルレイディアンスフィールド(NeRF)のための3次元シーンオブジェクトセグメンテーションに取り組むための最初の教師なしアプローチである。
論文 参考訳(メタデータ) (2022-10-02T11:14:23Z) - Drive&Segment: Unsupervised Semantic Segmentation of Urban Scenes via
Cross-modal Distillation [32.33170182669095]
本研究は,自動車が収集した生の非キュレートデータからのみ,手動のアノテーションを使わずに,都市景観における画素単位のセマンティックイメージのセマンティックセマンティックセマンティクスの学習について検討する。
本稿では,同期化LiDARと画像データを利用した意味的イメージセグメンテーションのクロスモーダルな教師なし学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-21T17:35:46Z) - 3D Registration for Self-Occluded Objects in Context [66.41922513553367]
このシナリオを効果的に処理できる最初のディープラーニングフレームワークを紹介します。
提案手法はインスタンスセグメンテーションモジュールとポーズ推定モジュールから構成される。
これにより、高価な反復手順を必要とせず、ワンショットで3D登録を行うことができます。
論文 参考訳(メタデータ) (2020-11-23T08:05:28Z) - Self-Supervised Monocular Depth Estimation: Solving the Dynamic Object
Problem by Semantic Guidance [36.73303869405764]
自己監督型単眼深度推定は, 単一カメラ画像から3次元シーン情報を得る強力な方法を示す。
本稿では,移動型動的クラス(DC)オブジェクトを扱うための自己教師付き意味誘導深度推定(SGDepth)手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T09:47:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。