論文の概要: Towards Explainable LiDAR Point Cloud Semantic Segmentation via Gradient
Based Target Localization
- arxiv url: http://arxiv.org/abs/2402.12098v1
- Date: Mon, 19 Feb 2024 12:27:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 16:37:28.907091
- Title: Towards Explainable LiDAR Point Cloud Semantic Segmentation via Gradient
Based Target Localization
- Title(参考訳): グラディエントベースターゲットローカライゼーションによる説明可能なLiDARポイントクラウドセマンティックセグメンテーションに向けて
- Authors: Abhishek Kuriyal, Vaibhav Kumar
- Abstract要約: 本稿では,ニューラルネットワークアクティベーション層にサリエンシマップを生成する新しい手法であるpGS-CAMを紹介する。
局所的な重要性を強調するために勾配を使用するGrad-CAMにインスパイアされたpGS-CAMは、さまざまなデータセットに対して堅牢で効果的である。
- 参考スコア(独自算出の注目度): 13.291152913893029
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic Segmentation (SS) of LiDAR point clouds is essential for many
applications, such as urban planning and autonomous driving. While much
progress has been made in interpreting SS predictions for images, interpreting
point cloud SS predictions remains a challenge. This paper introduces pGS-CAM,
a novel gradient-based method for generating saliency maps in neural network
activation layers. Inspired by Grad-CAM, which uses gradients to highlight
local importance, pGS-CAM is robust and effective on a variety of datasets
(SemanticKITTI, Paris-Lille3D, DALES) and 3D deep learning architectures
(KPConv, RandLANet). Our experiments show that pGS-CAM effectively accentuates
the feature learning in intermediate activations of SS architectures by
highlighting the contribution of each point. This allows us to better
understand how SS models make their predictions and identify potential areas
for improvement. Relevant codes are available at
https://github.com/geoai4cities/pGS-CAM.
- Abstract(参考訳): LiDARポイントクラウドのセマンティックセグメンテーション(SS)は、都市計画や自動運転など、多くのアプリケーションに不可欠である。
画像のSS予測の解釈には多くの進歩があったが、ポイントクラウドSS予測の解釈は依然として課題である。
本稿では,ニューラルネットワークアクティベーション層内のサリエンシマップを生成するための勾配法であるpGS-CAMを紹介する。
局所的な重要性を強調するために勾配を使用するGrad-CAMにインスパイアされたpGS-CAMは、さまざまなデータセット(SemanticKITTI、Paris-Lille3D、DALES)と3Dディープラーニングアーキテクチャ(KPConv、RandLANet)で堅牢で効果的である。
pGS-CAMは,各点の寄与を強調することにより,SSアーキテクチャの中間活性化における特徴学習を効果的にアクティベートすることを示す。
これにより、SSモデルがどのように予測を行い、改善の潜在的な領域を特定するのかをよりよく理解できます。
関連コードはhttps://github.com/geoai4cities/pGS-CAMで公開されている。
関連論文リスト
- Self-supervised Learning of LiDAR 3D Point Clouds via 2D-3D Neural Calibration [107.61458720202984]
本稿では,自律走行シーンにおける3次元知覚を高めるための,新しい自己教師型学習フレームワークを提案する。
本稿では,画像とポイントクラウドデータの領域ギャップを埋めるために,学習可能な変換アライメントを提案する。
我々は剛性ポーズを推定するために密度の高い2D-3D対応を確立する。
論文 参考訳(メタデータ) (2024-01-23T02:41:06Z) - OccNeRF: Advancing 3D Occupancy Prediction in LiDAR-Free Environments [77.0399450848749]
本稿では,OccNeRF法を用いて,3次元監視なしで占有ネットワークを訓練する手法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成し、カメラの無限知覚範囲に合わせる。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Camera-based 3D Semantic Scene Completion with Sparse Guidance Network [18.415854443539786]
本稿では,SGNと呼ばれるカメラベースのセマンティックシーン補完フレームワークを提案する。
SGNは空間幾何学的手がかりに基づいてセマンティック・アウェア・シード・ボクセルからシーン全体へのセマンティクスの伝播を行う。
実験の結果,既存の最先端手法よりもSGNの方が優れていることが示された。
論文 参考訳(メタデータ) (2023-12-10T04:17:27Z) - LISNeRF Mapping: LiDAR-based Implicit Mapping via Semantic Neural Fields for Large-Scale 3D Scenes [2.822816116516042]
大規模セマンティックマッピングは、屋外の自律エージェントが計画やナビゲーションといった高度なタスクを遂行するために不可欠である。
本稿では,提案するLiDAR測度のみでの暗黙的表現による大規模3次元意味再構築手法を提案する。
論文 参考訳(メタデータ) (2023-11-04T03:55:38Z) - BroadCAM: Outcome-agnostic Class Activation Mapping for Small-scale
Weakly Supervised Applications [69.22739434619531]
そこで我々はBroadCAMと呼ばれる結果に依存しないCAMアプローチを提案する。
VOC2012でBroadCAM、WSSSでBCSS-WSSS、WSOLでOpenImages30kを評価することで、BroadCAMは優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-09-07T06:45:43Z) - CLR-GAM: Contrastive Point Cloud Learning with Guided Augmentation and
Feature Mapping [12.679625717350113]
本稿では、効率的な動的探索戦略のためのガイド拡張(GA)を備えた対照的な学習ベースのフレームワークであるCLR-GAMを提案する。
提案手法がシミュレーションおよび実世界の3Dポイントクラウドデータセット上で最先端のパフォーマンスを実現することを実証的に実証した。
論文 参考訳(メタデータ) (2023-02-28T04:38:52Z) - Improving Lidar-Based Semantic Segmentation of Top-View Grid Maps by
Learning Features in Complementary Representations [3.0413873719021995]
我々は、自律運転の文脈において、スパースで単発のLiDAR測定から意味情報を予測するための新しい方法を提案する。
このアプローチは、トップビューグリッドマップのセマンティックセグメンテーションを改善することを目的としている。
各表現に対して、セマンティック情報を効果的に抽出するために、調整されたディープラーニングアーキテクチャが開発された。
論文 参考訳(メタデータ) (2022-03-02T14:49:51Z) - Progressive Coordinate Transforms for Monocular 3D Object Detection [52.00071336733109]
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
本稿では,学習座標表現を容易にするために,PCT(Em Progressive Coordinate Transforms)と呼ばれる,新しい軽量なアプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T15:22:33Z) - S3Net: 3D LiDAR Sparse Semantic Segmentation Network [1.330528227599978]
S3NetはLiDARポイントクラウドセマンティックセグメンテーションのための新しい畳み込みニューラルネットワークである。
sparse intra-channel attention module (sintraam)とsparse inter-channel attention module (sinteram)で構成されるエンコーダ-デコーダバックボーンを採用する。
論文 参考訳(メタデータ) (2021-03-15T22:15:24Z) - SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving [63.87272273293804]
VRNN(Variiational Recurrent Neural Networks)と呼ばれる生成モデルに基づく新しいLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
VRNNのスパースバージョンとラベルを必要としない効果的な自己監督型トレーニング方法を紹介します。
論文 参考訳(メタデータ) (2021-02-19T11:56:44Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。