論文の概要: T3DNet: Compressing Point Cloud Models for Lightweight 3D Recognition
- arxiv url: http://arxiv.org/abs/2402.19264v1
- Date: Thu, 29 Feb 2024 15:35:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 14:12:44.433997
- Title: T3DNet: Compressing Point Cloud Models for Lightweight 3D Recognition
- Title(参考訳): T3DNet:軽量3D認識のためのポイントクラウドモデル圧縮
- Authors: Zhiyuan Yang, Yunjiao Zhou, Lihua Xie, Jianfei Yang
- Abstract要約: 3Dポイントクラウドは、自律運転やモバイルデバイスでの3Dセンシングなど、多くのモバイルアプリシナリオで広く使用されている。
既存の3Dポイントのクラウドモデルは巨大で扱いにくいため、エッジデバイスへのデプロイが困難である。
3Dポイントのクラウドモデルを軽量モデルに圧縮する方法に関する研究が不足している。
- 参考スコア(独自算出の注目度): 32.13814529955053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D point cloud has been widely used in many mobile application scenarios,
including autonomous driving and 3D sensing on mobile devices. However,
existing 3D point cloud models tend to be large and cumbersome, making them
hard to deploy on edged devices due to their high memory requirements and
non-real-time latency. There has been a lack of research on how to compress 3D
point cloud models into lightweight models. In this paper, we propose a method
called T3DNet (Tiny 3D Network with augmEntation and disTillation) to address
this issue. We find that the tiny model after network augmentation is much
easier for a teacher to distill. Instead of gradually reducing the parameters
through techniques such as pruning or quantization, we pre-define a tiny model
and improve its performance through auxiliary supervision from augmented
networks and the original model. We evaluate our method on several public
datasets, including ModelNet40, ShapeNet, and ScanObjectNN. Our method can
achieve high compression rates without significant accuracy sacrifice,
achieving state-of-the-art performances on three datasets against existing
methods. Amazingly, our T3DNet is 58 times smaller and 54 times faster than the
original model yet with only 1.4% accuracy descent on the ModelNet40 dataset.
- Abstract(参考訳): 3d point cloudは、モバイルデバイス上での自動運転や3dセンシングなど、多くのモバイルアプリケーションシナリオで広く使用されている。
しかし、既存の3Dポイントクラウドモデルは巨大で扱いにくいため、高いメモリ要求と非リアルタイムレイテンシのため、エッジデバイスへのデプロイが困難になる。
3Dポイントのクラウドモデルを軽量モデルに圧縮する方法に関する研究が不足している。
本稿では,T3DNet (Tiny 3D Network with augmEntation and disTillation) と呼ばれる手法を提案する。
ネットワーク拡張後の小さなモデルは、教師が蒸留するのがずっと簡単であることがわかった。
プルーニングや量子化などの手法によりパラメータを段階的に削減する代わりに、小さなモデルを事前定義し、拡張ネットワークや元のモデルからの補助的な監督によって性能を向上させる。
提案手法を,ModelNet40,ShapeNet,ScanObjectNNなどの公開データセット上で評価する。
提案手法は精度の犠牲を伴わずに高い圧縮率を達成でき,既存の3つの手法に対して最先端の性能を達成できる。
驚くべきことに、私たちのT3DNetはオリジナルのモデルよりも58倍小さく、54倍高速ですが、ModelNet40データセットの精度はわずか1.4%です。
関連論文リスト
- 4DSR-GCN: 4D Video Point Cloud Upsampling using Graph Convolutional
Networks [29.615723135027096]
圧縮後の3次元ビデオポイント雲のアップスケーリングと復元のための新しいソリューションを提案する。
我々のモデルは、動的エッジ畳み込みとグラフ注意ネットワークを組み合わせた、特別に設計されたグラフ畳み込みネットワーク(GCN)で構成されている。
論文 参考訳(メタデータ) (2023-06-01T18:43:16Z) - Smaller3d: Smaller Models for 3D Semantic Segmentation Using Minkowski
Engine and Knowledge Distillation Methods [0.0]
本稿では, 知識蒸留技術, 特に3次元深層学習におけるスパーステンソルを応用して, 性能を維持しつつ, モデルサイズを小さくする手法を提案する。
我々は,異なるスパース畳み込みNNの最先端モデルの性能をシミュレートするために,標準的な手法や様々な損失の組み合わせを含む異なる損失関数を分析し,目的を定めている。
論文 参考訳(メタデータ) (2023-05-04T22:19:25Z) - ULIP: Learning a Unified Representation of Language, Images, and Point
Clouds for 3D Understanding [110.07170245531464]
現在の3Dモデルは、注釈付きデータの少ないデータセットと、事前に定義されたカテゴリセットによって制限されている。
近年の進歩は、言語などの他のモダリティからの知識を活用することで、同様の問題を著しく軽減できることを示している。
画像,テキスト,3次元点雲の統一表現は,3つのモードからオブジェクト三重項を事前学習することで学習する。
論文 参考訳(メタデータ) (2022-12-10T01:34:47Z) - PartSLIP: Low-Shot Part Segmentation for 3D Point Clouds via Pretrained
Image-Language Models [56.324516906160234]
一般化可能な3D部分分割は重要だが、ビジョンとロボティクスでは難しい。
本稿では,事前学習した画像言語モデルGLIPを利用して,3次元点雲の低ショット部分分割法を提案する。
我々は2Dから3Dへの豊富な知識を、ポイントクラウドレンダリングにおけるGLIPに基づく部分検出と新しい2D-to-3Dラベルリフトアルゴリズムにより転送する。
論文 参考訳(メタデータ) (2022-12-03T06:59:01Z) - Sparse2Dense: Learning to Densify 3D Features for 3D Object Detection [85.08249413137558]
LiDARが生成する点雲は、最先端の3Dオブジェクト検出器の主要な情報源である。
小さい、遠く、不完全な点の少ない物体は、しばしば検出するのが困難である。
Sparse2Denseは、潜在空間における点雲の密度化を学習することで、3D検出性能を効率的に向上する新しいフレームワークである。
論文 参考訳(メタデータ) (2022-11-23T16:01:06Z) - 3DVerifier: Efficient Robustness Verification for 3D Point Cloud Models [17.487852393066458]
既存のポイントクラウドモデルの検証手法は,大規模ネットワーク上で時間的・計算的に実現不可能である。
本稿では,2つの問題に対処する3DVerifierを提案し,線形緩和関数を適用して乗算層を結合し,前方と後方の伝搬を結合する。
提案手法は,大規模ネットワークにおける検証効率のオーダー・オブ・マグニチュード向上を実現し,得られた認証境界も最先端の検証器よりもかなり厳密である。
論文 参考訳(メタデータ) (2022-07-15T15:31:16Z) - Network Augmentation for Tiny Deep Learning [73.57192520534585]
ニューラルネットワークの性能向上のための新しいトレーニング手法であるNetAug(Net Aug)を紹介する。
画像分類と物体検出におけるNetAugの有効性を示す。
論文 参考訳(メタデータ) (2021-10-17T18:48:41Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Local Grid Rendering Networks for 3D Object Detection in Point Clouds [98.02655863113154]
CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
論文 参考訳(メタデータ) (2020-07-04T13:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。