論文の概要: DSFEC: Efficient and Deployable Deep Radar Object Detection
- arxiv url: http://arxiv.org/abs/2412.07411v1
- Date: Tue, 10 Dec 2024 11:03:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:39:30.926428
- Title: DSFEC: Efficient and Deployable Deep Radar Object Detection
- Title(参考訳): DSFEC: 効率的かつデプロイ可能なディープレーダオブジェクト検出
- Authors: Gayathri Dandugula, Santhosh Boddana, Sudesh Mirashi,
- Abstract要約: 本研究では,レーダー物体検出ネットワークにおけるDepthwise Separable Convolutionsの効率性について検討する。
本稿では,新しい特徴拡張圧縮(FEC)モジュールをPointPillars機能エンコーダに導入し,モデル性能をさらに向上する。
私たちのデプロイ可能なモデルは、ベースラインと比較してRaspberry Piのランタイムの74.5%の大幅な削減を実現しています。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Deploying radar object detection models on resource-constrained edge devices like the Raspberry Pi poses significant challenges due to the large size of the model and the limited computational power and the memory of the Pi. In this work, we explore the efficiency of Depthwise Separable Convolutions in radar object detection networks and integrate them into our model. Additionally, we introduce a novel Feature Enhancement and Compression (FEC) module to the PointPillars feature encoder to further improve the model performance. With these innovations, we propose the DSFEC-L model and its two versions, which outperform the baseline (23.9 mAP of Car class, 20.72 GFLOPs) on nuScenes dataset: 1). An efficient DSFEC-M model with a 14.6% performance improvement and a 60% reduction in GFLOPs. 2). A deployable DSFEC-S model with a 3.76% performance improvement and a remarkable 78.5% reduction in GFLOPs. Despite marginal performance gains, our deployable model achieves an impressive 74.5% reduction in runtime on the Raspberry Pi compared to the baseline.
- Abstract(参考訳): Raspberry Piのようなリソース制約のあるエッジデバイスにレーダーオブジェクト検出モデルをデプロイすることは、モデルのサイズが大きくなり、計算能力の制限やPiのメモリが制限されるため、大きな課題となる。
本研究では,レーダオブジェクト検出ネットワークにおけるDepthwise Separable Convolutionsの効率性を検討した。
さらに,新しい機能拡張圧縮(FEC)モジュールをPointPillars機能エンコーダに導入し,モデル性能をさらに向上する。
これらの革新により, DSFEC-Lモデルとその2つのバージョンが提案され, nuScenesデータセット上でのベースライン(カークラス23.9 mAP, 20.72 GFLOPs)よりも優れていた。
14.6%の性能向上とGFLOPの60%削減を図った効率的なDSFEC-Mモデル。
2)。
デプロイ可能なDSFEC-Sモデルは3.76%の性能向上とGFLOPの78.5%の大幅な削減を実現している。
パフォーマンスの限界はありますが、私たちのデプロイ可能なモデルは、ベースラインと比較してRaspberry Piのランタイムを74.5%削減しました。
関連論文リスト
- EMOv2: Pushing 5M Vision Model Frontier [92.21687467702972]
様々な下流タスクにおいて,5M級軽量モデルの新たなフロンティアを構築した。
我々の研究は、Transformerにおける効率的なIRBと実用的なコンポーネントの軽量なインフラを再考する。
4G/5G帯でモデルをダウンロードする場合のモバイルユーザの遅延を考慮し,5M程度の軽量モデルの性能上限について検討する。
論文 参考訳(メタデータ) (2024-12-09T17:12:22Z) - GRIN: GRadient-INformed MoE [132.87651078514122]
Mixture-of-Experts (MoE)モデルは、エキスパートルーティングによるスパース計算により、密度の高いモデルよりも効果的にスケールする。
エキスパートルーティングのためのスパース勾配推定を組み込んだGRIN(GRadient-Informed MoE Training)を導入する。
我々のモデルは6.6Bの活性化パラメータしか持たないが、7Bの密度モデルより優れており、同じデータで訓練された14Bの密度モデルの性能と一致している。
論文 参考訳(メタデータ) (2024-09-18T17:00:20Z) - SDPose: Tokenized Pose Estimation via Circulation-Guide Self-Distillation [53.675725490807615]
SDPoseは小型変圧器モデルの性能向上のための新しい自己蒸留法である。
SDPose-Tは4.4Mパラメータと1.8 GFLOPを持つ69.7%のmAPを取得し、SDPose-S-V2はMSCOCO検証データセット上で73.5%のmAPを取得する。
論文 参考訳(メタデータ) (2024-04-04T15:23:14Z) - DiffNAS: Bootstrapping Diffusion Models by Prompting for Better
Architectures [63.12993314908957]
そこで我々は,DiffNASと呼ばれるベースモデル探索手法を提案する。
GPT-4をスーパーネットとして利用して検索を高速化し,検索メモリを補足して結果を向上する。
厳密な実験により,GPTに基づくシナリオでは,探索効率を2倍に向上できることが示された。
論文 参考訳(メタデータ) (2023-10-07T09:10:28Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - Rethinking Deconvolution for 2D Human Pose Estimation Light yet Accurate
Model for Real-time Edge Computing [0.0]
このシステムは精度が高く、SOTA HRNet 256x192の94.5%の精度を達成した。
我々のモデルはエンコーダ・デコーダアーキテクチャを採用し、その効率を改善するために注意深く縮小されている。
論文 参考訳(メタデータ) (2021-11-08T01:44:46Z) - PP-PicoDet: A Better Real-Time Object Detector on Mobile Devices [13.62426382827205]
実時間物体検出器のPP-PicoDetファミリは,モバイルデバイスの物体検出において優れた性能を発揮する。
モデルは、他の一般的なモデルと比較して、精度とレイテンシのトレードオフを改善する。
論文 参考訳(メタデータ) (2021-11-01T12:53:17Z) - Towards Efficient Point Cloud Graph Neural Networks Through
Architectural Simplification [8.062534763028808]
我々は,グラフニューラルネットワーク(GNN)モデルの効率向上に向けて,これらのモデルが,最初の特徴抽出層(Feature extracting, layer)の表現力によって大きく制限されていることを観察する。
特徴抽出層がモデル性能の低下を最小限に抑えながら維持される限り、これらのモデルを根本的に単純化することは可能である。
我々のアプローチは、DGCNNのようなモデルにおけるグラフ層において、メモリ消費を20$times$、レイテンシを9.9$times$に削減します。
論文 参考訳(メタデータ) (2021-08-13T17:04:54Z) - Real-Time Anchor-Free Single-Stage 3D Detection with IoU-Awareness [15.72821609622122]
実時間3D検出における勝利解について紹介する。
また、CVPR 2021におけるオープンデータセットの課題において、"Most Efficient Model"を提示する。
論文 参考訳(メタデータ) (2021-07-29T21:47:34Z) - Towards Practical Lipreading with Distilled and Efficient Models [57.41253104365274]
ニューラルネットワークの復活により、リリーディングは多くの進歩を目の当たりにした。
最近の研究は、最適なアーキテクチャを見つけるか、一般化を改善することで、パフォーマンスを改善するといった側面に重点を置いている。
現在の方法論と、実践的なシナリオにおける効果的なリップリーディングのデプロイ要件との間には、依然として大きなギャップがあります。
まず, LRW と LRW-1000 をそれぞれ 88.5% と 46.6% に比例して, 最先端の性能を高めることを提案する。
論文 参考訳(メタデータ) (2020-07-13T16:56:27Z) - Pre-defined Sparsity for Low-Complexity Convolutional Neural Networks [9.409651543514615]
この研究は、フィルタ内で定期的に繰り返されるサポートセットを持つ、事前に定義されたスパース2Dカーネルを持つ畳み込みレイヤを導入している。
周期的なスパースカーネルの効率的な保存のため、パラメータの節約はエネルギー効率を大幅に向上させることができる。
論文 参考訳(メタデータ) (2020-01-29T07:10:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。