論文の概要: MobileDets: Searching for Object Detection Architectures for Mobile
Accelerators
- arxiv url: http://arxiv.org/abs/2004.14525v3
- Date: Wed, 31 Mar 2021 01:21:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 05:00:36.188963
- Title: MobileDets: Searching for Object Detection Architectures for Mobile
Accelerators
- Title(参考訳): MobileDets: モバイルアクセラレータのためのオブジェクト検出アーキテクチャの検索
- Authors: Yunyang Xiong, Hanxiao Liu, Suyog Gupta, Berkin Akin, Gabriel Bender,
Yongzhe Wang, Pieter-Jan Kindermans, Mingxing Tan, Vikas Singh, Bo Chen
- Abstract要約: 逆ボトルネック層は、モバイルデバイス上の最先端のオブジェクト検出モデルにおいて、主要なビルディングブロックとなっている。
通常の畳み込みは、アクセラレーターにおけるオブジェクト検出の遅延精度トレードオフを高める強力なコンポーネントである。
我々は、モバイルアクセラレーター全体で最先端の成果を得られるオブジェクト検出モデル、MobileDetsのファミリーを得る。
- 参考スコア(独自算出の注目度): 61.30355783955777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inverted bottleneck layers, which are built upon depthwise convolutions, have
been the predominant building blocks in state-of-the-art object detection
models on mobile devices. In this work, we investigate the optimality of this
design pattern over a broad range of mobile accelerators by revisiting the
usefulness of regular convolutions. We discover that regular convolutions are a
potent component to boost the latency-accuracy trade-off for object detection
on accelerators, provided that they are placed strategically in the network via
neural architecture search. By incorporating regular convolutions in the search
space and directly optimizing the network architectures for object detection,
we obtain a family of object detection models, MobileDets, that achieve
state-of-the-art results across mobile accelerators. On the COCO object
detection task, MobileDets outperform MobileNetV3+SSDLite by 1.7 mAP at
comparable mobile CPU inference latencies. MobileDets also outperform
MobileNetV2+SSDLite by 1.9 mAP on mobile CPUs, 3.7 mAP on Google EdgeTPU, 3.4
mAP on Qualcomm Hexagon DSP and 2.7 mAP on Nvidia Jetson GPU without increasing
latency. Moreover, MobileDets are comparable with the state-of-the-art MnasFPN
on mobile CPUs even without using the feature pyramid, and achieve better mAP
scores on both EdgeTPUs and DSPs with up to 2x speedup. Code and models are
available in the TensorFlow Object Detection API:
https://github.com/tensorflow/models/tree/master/research/object_detection.
- Abstract(参考訳): 奥行きの畳み込みの上に構築された逆ボトルネック層は、モバイルデバイス上の最先端のオブジェクト検出モデルにおいて、主要な構成要素となっている。
本研究では,この設計パターンを,通常の畳み込みの有用性を再考することにより,広い範囲の移動加速器上での最適性を検討する。
ニューラルネットワーク探索によってネットワーク上に戦略的に配置されることから,通常の畳み込みは,加速器におけるオブジェクト検出の遅延精度トレードオフを促進する強力なコンポーネントであることが判明した。
探索空間に規則的な畳み込みを取り入れ、オブジェクト検出のためのネットワークアーキテクチャを直接最適化することで、モバイルアクセラレータ間で最新結果を達成するオブジェクト検出モデルであるmobiledets群を得る。
COCOオブジェクト検出タスクでは、MobileDetsはMobileNetV3+SSDLiteを1.7mAPで上回っている。
MobileDetsはモバイルCPUで1.9mAP、Google EdgeTPUで3.7mAP、Qualcomm Hexagon DSPで3.4mAP、Nvidia Jetson GPUで2.7mAPを上回った。
さらにMobileDetsは、機能ピラミッドを使用しなくてもモバイルCPUの最先端のMnasFPNに匹敵し、最大2倍のスピードアップでEdgeTPUとDSPの両方でmAPスコアが向上する。
コードとモデルはTensorFlow Object Detection APIで利用できる。
関連論文リスト
- PP-MobileSeg: Explore the Fast and Accurate Semantic Segmentation Model
on Mobile Devices [4.784867435788648]
PP-MobileSegは、モバイルデバイス上で最先端のパフォーマンスを実現するセマンティックセグメンテーションモデルである。
VIMは最終予測に存在するクラスのみを補間することで、モデルのレイテンシを低減する。
実験の結果,PP-MobileSegは他の手法に比べて精度,モデルサイズ,レイテンシのトレードオフが優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-11T11:43:10Z) - FastPillars: A Deployment-friendly Pillar-based 3D Detector [63.0697065653061]
既存のBEVベースの(つまりバードアイビュー)検出器は、トレーニングと推論を高速化するためにスパース・コンボリューション(SPConv)を好む。
FastPillarsは、CenterPoint(SPConvベース)よりも1.8倍のスピードアップと3.8mAPH/L2の改善で、Openデータセットの最先端の精度を提供する
論文 参考訳(メタデータ) (2023-02-05T12:13:27Z) - Using Detection, Tracking and Prediction in Visual SLAM to Achieve
Real-time Semantic Mapping of Dynamic Scenarios [70.70421502784598]
RDS-SLAMは、一般的に使用されているIntel Core i7 CPUのみを使用して、動的シナリオのためのオブジェクトレベルでのセマンティックマップをリアルタイムで構築することができる。
我々は, TUM RGB-DデータセットにおけるRDS-SLAMを評価し, 動的シナリオにおいて, RDS-SLAMはフレームあたり30.3msで動作可能であることを示した。
論文 参考訳(メタデータ) (2022-10-10T11:03:32Z) - MobileOne: An Improved One millisecond Mobile Backbone [14.041480018494394]
モバイルデバイス上に複数のモバイルフレンドリーなネットワークを配置することで、さまざまなメトリクスを分析します。
我々は,iPhone12で1ミリ秒未満の推論時間を実現した,効率的なバックボーンMobileOneを設計する。
我々はMobileOneが,モバイル上での処理速度を何倍にも向上しつつ,効率的なアーキテクチャ内での最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-06-08T17:55:11Z) - PP-PicoDet: A Better Real-Time Object Detector on Mobile Devices [13.62426382827205]
実時間物体検出器のPP-PicoDetファミリは,モバイルデバイスの物体検出において優れた性能を発揮する。
モデルは、他の一般的なモデルと比較して、精度とレイテンシのトレードオフを改善する。
論文 参考訳(メタデータ) (2021-11-01T12:53:17Z) - YOLO-ReT: Towards High Accuracy Real-time Object Detection on Edge GPUs [14.85882314822983]
ディープニューラルネットワーク(DNN)ベースのオブジェクト検出モデルをエッジデバイスにマップするには、通常、そのようなモデルを著しく圧縮する必要がある。
本稿では,マルチスケール機能インタラクションのためのエッジGPUフレンドリなモジュールを提案する。
また,様々なタスク間の翻訳情報の流れの変化にインスパイアされた,新たな学習バックボーンの導入を提案する。
論文 参考訳(メタデータ) (2021-10-26T14:02:59Z) - Disentangle Your Dense Object Detector [82.22771433419727]
深層学習に基づく高密度物体検出器はここ数年で大きな成功を収め、ビデオ理解などのマルチメディアアプリケーションにも応用されてきた。
しかし、現在の高密度検出器の訓練パイプラインは、保持できない多くの接続に妥協されている。
そこで本研究では, 簡易かつ効果的な遠心分離機構を設計し, 現在の最先端検出器に統合するDED(Disentangled Dense Object Detector)を提案する。
論文 参考訳(メタデータ) (2021-07-07T00:52:16Z) - Detecting soccer balls with reduced neural networks: a comparison of
multiple architectures under constrained hardware scenarios [0.8808021343665321]
この研究は、制約のあるハードウェア環境をターゲットにした最近のニューラルネットワークの提案の比較研究を提供する。
我々は、MobileNetV2とMobileNetV3モデルの複数のオープン実装を、基礎となる異なるアーキテクチャで訓練する。
以上の結果から,MobileNetV3モデルは制約シナリオのみにおいて,mAPと推論時間とのトレードオフが良好であること,また,高幅乗算器を持つMobileNetV2はサーバ側推論に適していることが示唆された。
論文 参考訳(メタデータ) (2020-09-28T23:26:25Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z) - RT3D: Achieving Real-Time Execution of 3D Convolutional Neural Networks
on Mobile Devices [57.877112704841366]
本稿では3次元CNNのためのモデル圧縮およびモバイルアクセラレーションフレームワークRT3Dを提案する。
3D CNNのリアルタイム実行は、市販のモバイル上で初めて実現された。
論文 参考訳(メタデータ) (2020-07-20T02:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。