論文の概要: FFAM: Feature Factorization Activation Map for Explanation of 3D Detectors
- arxiv url: http://arxiv.org/abs/2405.12601v1
- Date: Tue, 21 May 2024 08:55:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 13:58:57.160901
- Title: FFAM: Feature Factorization Activation Map for Explanation of 3D Detectors
- Title(参考訳): FFAM:3次元検出器記述のための特徴因子化活性化マップ
- Authors: Shuai Liu, Boyang Li, Zhiyu Fang, Mingyue Cui, Kai Huang,
- Abstract要約: 3次元検出器の高精細な視覚的説明を生成するための特徴因子化活性化マップ (FFAM) を提案する。
オブジェクト固有の視覚的説明を実現するために,対象物体の特徴勾配を用いてグローバルな視覚的説明を洗練する。
複数のデータセット上の複数の検出器でFFAMを質的かつ定量的に分析する。
- 参考スコア(独自算出の注目度): 9.143384495617722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LiDAR-based 3D object detection has made impressive progress recently, yet most existing models are black-box, lacking interpretability. Previous explanation approaches primarily focus on analyzing image-based models and are not readily applicable to LiDAR-based 3D detectors. In this paper, we propose a feature factorization activation map (FFAM) to generate high-quality visual explanations for 3D detectors. FFAM employs non-negative matrix factorization to generate concept activation maps and subsequently aggregates these maps to obtain a global visual explanation. To achieve object-specific visual explanations, we refine the global visual explanation using the feature gradient of a target object. Additionally, we introduce a voxel upsampling strategy to align the scale between the activation map and input point cloud. We qualitatively and quantitatively analyze FFAM with multiple detectors on several datasets. Experimental results validate the high-quality visual explanations produced by FFAM. The Code will be available at \url{https://github.com/Say2L/FFAM.git}.
- Abstract(参考訳): LiDARベースの3Dオブジェクト検出は近年目覚ましい進歩を遂げているが、既存のモデルのほとんどはブラックボックスであり、解釈性に欠けている。
従来の説明手法は主に画像ベースモデルの解析に重点を置いており、LiDARベースの3D検出器には適用できない。
本稿では,3次元検出器の高精細な視覚的説明を生成するための特徴因子化活性化マップ(FFAM)を提案する。
FFAMは非負行列分解を用いて概念活性化マップを生成し、その後これらのマップを集約して大域的な視覚的説明を得る。
オブジェクト固有の視覚的説明を実現するために,対象物体の特徴勾配を用いてグローバルな視覚的説明を洗練する。
さらに,アクティベーションマップと入力点クラウドのスケールを調整するために,ボクセルアップサンプリング戦略を導入する。
複数のデータセット上の複数の検出器でFFAMを質的かつ定量的に分析する。
FFAMによる高品質な視覚的説明を実験的に検証した。
コードは \url{https://github.com/Say2L/FFAM.git} で入手できる。
関連論文リスト
- VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - OA-BEV: Bringing Object Awareness to Bird's-Eye-View Representation for
Multi-Camera 3D Object Detection [78.38062015443195]
OA-BEVは、BEVベースの3Dオブジェクト検出フレームワークにプラグインできるネットワークである。
提案手法は,BEV ベースラインに対する平均精度と nuScenes 検出スコアの両面で一貫した改善を実現する。
論文 参考訳(メタデータ) (2023-01-13T06:02:31Z) - CMR3D: Contextualized Multi-Stage Refinement for 3D Object Detection [57.44434974289945]
本稿では,3次元オブジェクト検出(CMR3D)フレームワークのためのコンテキスト型マルチステージリファインメントを提案する。
我々のフレームワークは3Dシーンを入力として取り、シーンの有用なコンテキスト情報を明示的に統合しようと試みている。
3Dオブジェクトの検出に加えて,3Dオブジェクトカウント問題に対するフレームワークの有効性について検討する。
論文 参考訳(メタデータ) (2022-09-13T05:26:09Z) - Label-Guided Auxiliary Training Improves 3D Object Detector [32.96310946612949]
3次元物体検出(LG3D)のためのラベル誘導補助訓練法を提案する。
提案したLG3Dは,SUN RGB-DおよびScanNetV2データセット上でVoteNetを2.5%,3.1%改善する。
論文 参考訳(メタデータ) (2022-07-24T14:22:21Z) - Boosting 3D Object Detection via Object-Focused Image Fusion [33.616129400275156]
本稿では,画像情報をポイント特徴に融合するDeMFを提案する。
本稿では,SUN RGB-Dデータセットの課題について検討する。
論文 参考訳(メタデータ) (2022-07-21T16:32:05Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - OccAM's Laser: Occlusion-based Attribution Maps for 3D Object Detectors
on LiDAR Data [8.486063950768694]
本稿では,LiDAR点雲における3次元物体検出のための属性マップを生成する手法を提案する。
これらのマップは、特定のオブジェクトを予測する上で、各3Dポイントの重要性を示している。
本稿では,属性マップの詳細な評価を行い,それらが解釈可能かつ高情報であることを示す。
論文 参考訳(メタデータ) (2022-04-13T18:00:30Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - A Versatile Multi-View Framework for LiDAR-based 3D Object Detection
with Guidance from Panoptic Segmentation [9.513467995188634]
LiDARデータを用いた3Dオブジェクト検出は、自律運転システムにとって必須のコンポーネントである。
本稿では,3次元物体検出とパノプティックセグメンテーションを共同で行う新しいマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-04T04:57:05Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - VIN: Voxel-based Implicit Network for Joint 3D Object Detection and
Segmentation for Lidars [12.343333815270402]
統合ニューラルネットワーク構造は、ジョイント3Dオブジェクト検出とポイントクラウドセグメンテーションのために提示される。
私たちは、検出ラベルとセグメンテーションラベルの両方からの豊富な監視を活用しています。
論文 参考訳(メタデータ) (2021-07-07T02:16:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。