論文の概要: PointDistiller: Structured Knowledge Distillation Towards Efficient and
Compact 3D Detection
- arxiv url: http://arxiv.org/abs/2205.11098v1
- Date: Mon, 23 May 2022 07:40:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 15:55:21.696646
- Title: PointDistiller: Structured Knowledge Distillation Towards Efficient and
Compact 3D Detection
- Title(参考訳): PointDistiller: 効率的かつコンパクトな3D検出に向けた構造化知識蒸留
- Authors: Linfeng Zhang, Runpei Dong, Hung-Shuo Tai, Kaisheng Ma
- Abstract要約: 本稿では,点雲を用いた3次元検出のための構造化知識蒸留フレームワークであるPointDistillerを提案する。
PointDistillerには局所蒸留が含まれており、動的グラフ畳み込みと再重み付き学習戦略によって点雲の局所的な幾何学構造を抽出し、蒸留する。
我々の4X圧縮PointPillars学生は、BEVと3Dオブジェクト検出の2.8mAPと3.4mAPの改善を達成し、それぞれ0.9mAPと1.8mAPを上回りました。
- 参考スコア(独自算出の注目度): 15.79799516495951
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The remarkable breakthroughs in point cloud representation learning have
boosted their usage in real-world applications such as self-driving cars and
virtual reality. However, these applications usually have an urgent requirement
for not only accurate but also efficient 3D object detection. Recently,
knowledge distillation has been proposed as an effective model compression
technique, which transfers the knowledge from an over-parameterized teacher to
a lightweight student and achieves consistent effectiveness in 2D vision.
However, due to point clouds' sparsity and irregularity, directly applying
previous image-based knowledge distillation methods to point cloud detectors
usually leads to unsatisfactory performance. To fill the gap, this paper
proposes PointDistiller, a structured knowledge distillation framework for
point clouds-based 3D detection. Concretely, PointDistiller includes local
distillation which extracts and distills the local geometric structure of point
clouds with dynamic graph convolution and reweighted learning strategy, which
highlights student learning on the crucial points or voxels to improve
knowledge distillation efficiency. Extensive experiments on both voxels-based
and raw points-based detectors have demonstrated the effectiveness of our
method over seven previous knowledge distillation methods. For instance, our 4X
compressed PointPillars student achieves 2.8 and 3.4 mAP improvements on BEV
and 3D object detection, outperforming its teacher by 0.9 and 1.8 mAP,
respectively. Codes have been released at
https://github.com/RunpeiDong/PointDistiller.
- Abstract(参考訳): クラウド表現学習における目覚ましいブレークスルーは、自動運転車や仮想現実のような現実世界のアプリケーションでの利用を加速させた。
しかし、これらのアプリケーションは通常、正確なだけでなく、効率的な3Dオブジェクト検出のための緊急要件を持っている。
近年, モデル圧縮手法として知識蒸留が提案されており, 教師の知識を教師から軽量な学生に伝達し, 2次元視覚において一貫した有効性を実現する。
しかし、点雲の空間性と不規則性のため、従来の画像に基づく知識蒸留法を点雲検出器に直接適用することは、通常不満足な性能をもたらす。
このギャップを埋めるために,ポイントクラウドに基づく3d検出のための構造化知識蒸留フレームワークであるpointdistillerを提案する。
具体的には、ポイントディストラーは局所蒸留を含み、動的グラフ畳み込みと再重み付き学習戦略によって点雲の局所的な幾何学的構造を抽出し、蒸留する。
voxels法とraw point法の両方を用いた広範な実験により,7種類以上の知識蒸留法の有効性が実証された。
例えば、4X圧縮されたPointPillarsの学生は、BEVと3Dオブジェクト検出の2.8mAPと3.4mAPの改善を達成し、それぞれ0.9mAPと1.8mAPの差を上回りました。
コードはhttps://github.com/runpeidong/pointdistillerでリリースされている。
関連論文リスト
- Gradient-Guided Knowledge Distillation for Object Detectors [3.236217153362305]
グラディエント誘導型知識蒸留(GKD)という,物体検出における知識蒸留の新しい手法を提案する。
我々のGKDは勾配情報を用いて、検出損失に大きな影響を及ぼす特徴を識別し、割り当て、生徒が教師から最も関連性の高い特徴を学習できるようにする。
KITTIとCOCO-Trafficデータセットの実験は、対象検出のための知識蒸留における本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-03-07T21:09:09Z) - 3D Point Cloud Pre-training with Knowledge Distillation from 2D Images [128.40422211090078]
本稿では,2次元表現学習モデルから直接知識を取得するために,3次元ポイントクラウド事前学習モデルの知識蒸留手法を提案する。
具体的には、3Dポイントクラウドから概念特徴を抽出し、2D画像からの意味情報と比較するクロスアテンション機構を提案する。
このスキームでは,2次元教師モデルに含まれるリッチな情報から,クラウド事前学習モデルを直接学習する。
論文 参考訳(メタデータ) (2022-12-17T23:21:04Z) - Let Images Give You More:Point Cloud Cross-Modal Training for Shape
Analysis [43.13887916301742]
本稿では、ポイントクラウド分析を促進するために、シンプルだが効果的なポイントクラウドクロスモダリティトレーニング(PointCMT)戦略を導入する。
ビューイメージから補助的知識を効果的に獲得するために,教師学生のための枠組みを開発し,知識蒸留問題としてクロスモーダル学習を定式化する。
我々は、魅力的なバックボーン、すなわちPointCMT、PointNet++、PointMLPを備えた様々なデータセットにおいて、大きな利益を検証した。
論文 参考訳(メタデータ) (2022-10-09T09:35:22Z) - Exploring Inconsistent Knowledge Distillation for Object Detection with
Data Augmentation [66.25738680429463]
物体検出のための知識蒸留(KD)は、教師モデルから知識を伝達することで、コンパクトな検出器を訓練することを目的としている。
教師モデルの反直感的知覚に固有の知識を蒸留することを目的とした,一貫性のない知識蒸留(IKD)を提案する。
本手法は, 1段, 2段, アンカーフリーの物体検出器において, 最先端のKDベースラインより優れる。
論文 参考訳(メタデータ) (2022-09-20T16:36:28Z) - itKD: Interchange Transfer-based Knowledge Distillation for 3D Object
Detection [3.735965959270874]
本稿では,チャネルワイド圧縮と非圧縮を含むオートエンコーダスタイルのフレームワークを提案する。
教師ネットワークのマップビュー特徴を学習するために、教師ネットワークと学生ネットワークの機能は、共有オートエンコーダを介して独立して渡される。
マルチヘッド自己認識機構によって引き起こされた3次元物体検出情報と一致するように,頭部の注意損失を示す。
論文 参考訳(メタデータ) (2022-05-31T04:25:37Z) - Localization Distillation for Object Detection [134.12664548771534]
物体検出のための従来の知識蒸留法(KD)は、分類ロジットを模倣するのではなく、主に特徴模倣に焦点を当てている。
本稿では,教師から生徒に効率よくローカライズ知識を伝達できる新しいローカライズ蒸留法を提案する。
われわれは,ロジット模倣が特徴模倣より優れることを示すとともに,ロージット模倣が何年もの間,ロージット模倣が不十分であった理由として,ロージット蒸留が欠如していることが重要である。
論文 参考訳(メタデータ) (2022-04-12T17:14:34Z) - Learning-based Point Cloud Registration for 6D Object Pose Estimation in
the Real World [55.7340077183072]
我々は、ポイントクラウドデータからオブジェクトの6Dポーズを推定するタスクに取り組む。
この課題に対処する最近の学習ベースのアプローチは、合成データセットにおいて大きな成功を収めている。
これらの障害の原因を分析し、ソースとターゲットポイントの雲の特徴分布の違いに遡る。
論文 参考訳(メタデータ) (2022-03-29T07:55:04Z) - What Stops Learning-based 3D Registration from Working in the Real
World? [53.68326201131434]
この研究は、3Dポイントのクラウド登録失敗の原因を特定し、その原因を分析し、解決策を提案する。
最終的に、これは最も実践的な3D登録ネットワーク(BPNet)に変換される。
我々のモデルは微調整をせずに実データに一般化し、商用センサで得られた見えない物体の点雲上で最大67%の精度に達する。
論文 参考訳(メタデータ) (2021-11-19T19:24:27Z) - Empowering Knowledge Distillation via Open Set Recognition for Robust 3D
Point Cloud Classification [20.591508284285368]
本稿では,3次元物体認識のための知識蒸留とオープンセット認識の併用学習手法を提案する。
提案手法の有効性を,より小さなモデルを得るための様々な実験により実証する。
論文 参考訳(メタデータ) (2020-10-25T13:26:48Z) - D3Feat: Joint Learning of Dense Detection and Description of 3D Local
Features [51.04841465193678]
私たちは3Dポイントクラウドに3D完全畳み込みネットワークを活用しています。
本稿では,3次元点ごとに検出スコアと記述特徴の両方を密に予測する,新しい,実践的な学習機構を提案する。
本手法は,屋内と屋外の両方のシナリオで最先端の手法を実現する。
論文 参考訳(メタデータ) (2020-03-06T12:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。