論文の概要: 3D Point Cloud Feature Explanations Using Gradient-Based Methods
- arxiv url: http://arxiv.org/abs/2006.05548v1
- Date: Tue, 9 Jun 2020 23:17:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 15:11:33.092589
- Title: 3D Point Cloud Feature Explanations Using Gradient-Based Methods
- Title(参考訳): 勾配に基づく3次元クラウド特徴記述法
- Authors: Ananya Gupta, Simon Watson, Hujun Yin
- Abstract要約: 我々は、3Dデータを扱うために画像データに作用することが示されているサリエンシ手法を拡張した。
3Dデータは本質的に疎いという洞察に基づいて、ボクセルベースの分類ネットワークによって学習された特徴を可視化する。
以上の結果から,Voxception-ResNetモデルではパラメータの5%まで精度を損なうことが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 11.355723874379317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability is an important factor to drive user trust in the use of
neural networks for tasks with material impact. However, most of the work done
in this area focuses on image analysis and does not take into account 3D data.
We extend the saliency methods that have been shown to work on image data to
deal with 3D data. We analyse the features in point clouds and voxel spaces and
show that edges and corners in 3D data are deemed as important features while
planar surfaces are deemed less important. The approach is model-agnostic and
can provide useful information about learnt features. Driven by the insight
that 3D data is inherently sparse, we visualise the features learnt by a
voxel-based classification network and show that these features are also sparse
and can be pruned relatively easily, leading to more efficient neural networks.
Our results show that the Voxception-ResNet model can be pruned down to 5\% of
its parameters with negligible loss in accuracy.
- Abstract(参考訳): 説明可能性(Explainability)は、物質的影響のあるタスクに対するニューラルネットワークの使用に対するユーザの信頼を促進する重要な要素である。
しかし,本研究の大部分は画像解析に重点を置いており,三次元データを考慮したものではない。
3dデータを扱うために、画像データに取り組むことが示されているサルリエンシーメソッドを拡張します。
点群とボクセル空間の特徴を分析し、3次元データのエッジとコーナーが重要な特徴と見なされ、平面面は重要でないことを示す。
このアプローチはモデルに依存しないものであり、学習機能に関する有用な情報を提供することができる。
3Dデータは本質的にスパースであるという洞察に基づいて、ボクセルベースの分類ネットワークによって学習された特徴を可視化し、これらの特徴もスパースであり、比較的容易に切断できることを示し、より効率的なニューラルネットワークをもたらす。
以上の結果から,Voxception-ResNetモデルではパラメータの5倍まで精度が低下する可能性が示唆された。
関連論文リスト
- Inverse Neural Rendering for Explainable Multi-Object Tracking [35.072142773300655]
我々はRGBカメラから3Dマルチオブジェクト追跡をEmphInverse Rendering (IR)問題として再放送した。
我々は、本質的に形状と外観特性を歪ませる生成潜在空間上の画像損失を最適化する。
本手法の一般化とスケーリング能力は,合成データのみから生成前を学習することで検証する。
論文 参考訳(メタデータ) (2024-04-18T17:37:53Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Self-Supervised Learning with Multi-View Rendering for 3D Point Cloud
Analysis [33.31864436614945]
本稿では,3次元点雲モデルのための新しい事前学習手法を提案する。
我々の事前訓練は、局所的なピクセル/ポイントレベルの対応損失と、大域的な画像/ポイントの雲のレベル損失によって自己管理される。
これらの改善されたモデルは、さまざまなデータセットや下流タスクにおける既存の最先端メソッドよりも優れています。
論文 参考訳(メタデータ) (2022-10-28T05:23:03Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Paint and Distill: Boosting 3D Object Detection with Semantic Passing
Network [70.53093934205057]
ライダーやカメラセンサーからの3Dオブジェクト検出タスクは、自動運転に不可欠である。
本研究では,既存のライダーベース3D検出モデルの性能向上を図るために,SPNetという新しいセマンティックパスフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T12:35:34Z) - VR3Dense: Voxel Representation Learning for 3D Object Detection and
Monocular Dense Depth Reconstruction [0.951828574518325]
3次元物体検出と単眼深層再構成ニューラルネットワークを共同トレーニングする方法を紹介します。
推論中に入力、LiDARポイントクラウド、単一のRGBイメージとして取得し、オブジェクトポーズ予測と密に再構築された深度マップを生成します。
物体検出は教師付き方式で訓練されるが,自己教師型と教師型の両方の損失関数を用いて深度予測ネットワークを訓練する。
論文 参考訳(メタデータ) (2021-04-13T04:25:54Z) - Graphite: GRAPH-Induced feaTure Extraction for Point Cloud Registration [80.69255347486693]
我々は、シンプルな機能とキーポイント検出器である Graph-induced feaTure extract Pipeline を導入する。
我々は,点クラウド領域を記述し,有意な点を抽出する汎用的なグラフベース学習手法を構築した。
我々は3Dキーポイントパイプラインをグラフニューラルネットワークで再構成し、ポイントセットの効率的な処理を可能にする。
論文 参考訳(メタデータ) (2020-10-18T19:41:09Z) - PointContrast: Unsupervised Pre-training for 3D Point Cloud
Understanding [107.02479689909164]
本研究では,3次元表現学習の研究を支援することを目的とする。
教師なし事前学習が3Dシーンの大規模なソースセットに与える影響を計測する。
論文 参考訳(メタデータ) (2020-07-21T17:59:22Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z) - Pointwise Attention-Based Atrous Convolutional Neural Networks [15.499267533387039]
多数の点を効率的に扱うために,注目度に基づくアトラス畳み込みニューラルネットワークアーキテクチャを提案する。
提案モデルは,3次元セマンティックセグメンテーションタスクにおいて,最も重要な2つの3Dポイントクラウドデータセット上で評価されている。
精度の面では最先端モデルと比較して妥当な性能を達成し、パラメータの数ははるかに少ない。
論文 参考訳(メタデータ) (2019-12-27T13:12:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。