論文の概要: BED: A Real-Time Object Detection System for Edge Devices
- arxiv url: http://arxiv.org/abs/2202.07503v1
- Date: Mon, 14 Feb 2022 18:24:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 13:18:14.699415
- Title: BED: A Real-Time Object Detection System for Edge Devices
- Title(参考訳): BED:エッジデバイスのためのリアルタイムオブジェクト検出システム
- Authors: Guanchu Wang and Zaid Pervaiz Bhat and Zhimeng Jiang and Yi-Wei Chen
and Daochen Zha and Alfredo Costilla Reyes and Afshin Niktash and Gorkem
Ulkar and Erman Okman and Xia Hu
- Abstract要約: MAX78000 DNN加速器で行うエッジデバイスの物体検出システムであるBEDについて述べる。
実験結果から、BEDは300KBの小さなDNNモデルで正確に検出できることがわかった。
- 参考スコア(独自算出の注目度): 41.49810424046127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deploying machine learning models to edge devices has many real-world
applications, especially for the scenarios that demand low latency, low power,
or data privacy. However, it requires substantial research and engineering
efforts due to the limited computational resources and memory of edge devices.
In this demo, we present BED, an object detection system for edge devices
practiced on the MAX78000 DNN accelerator. BED integrates on-device DNN
inference with a camera and a screen for image acquisition and output
exhibition, respectively. Experiment results indicate BED can provide accurate
detection with an only 300KB tiny DNN model.
- Abstract(参考訳): マシンラーニングモデルをエッジデバイスにデプロイするには、特に低レイテンシ、低電力、データプライバシを求めるシナリオにおいて、多くの現実的なアプリケーションがあります。
しかし、計算資源とエッジデバイスのメモリが限られているため、かなりの研究とエンジニアリングの努力が必要となる。
本稿では,MAX78000 DNNアクセラレータで実施されているエッジデバイスのオブジェクト検出システムであるBEDを紹介する。
BEDは、デバイス上のDNN推論とカメラと画面を統合し、画像取得および出力展示を行う。
実験結果から、BEDは300KBの小さなDNNモデルで正確に検出できることがわかった。
関連論文リスト
- DECADE: Towards Designing Efficient-yet-Accurate Distance Estimation Modules for Collision Avoidance in Mobile Advanced Driver Assistance Systems [5.383130566626935]
本稿では,距離推定モデルであるDECADEについて述べる。
これらのモジュールを任意の検出器にアタッチして物体検出を高速な距離推定で拡張できることを実証する。
論文 参考訳(メタデータ) (2024-10-25T06:40:42Z) - Real-Time Pedestrian Detection on IoT Edge Devices: A Lightweight Deep Learning Approach [1.4732811715354455]
本研究では,AIoT(Artificial Intelligence of Things)エッジデバイス上での軽量ディープラーニングモデルの実装について検討する。
You Only Look Once (YOLO)ベースのDLモデルは、リアルタイムな歩行者検出のためにデプロイされる。
シミュレーションの結果、最適化されたYOLOモデルは、高速な推論速度147ミリ秒、フレームレート2.3フレーム/秒、精度78%でリアルタイムな歩行者検出を実現できることが示された。
論文 参考訳(メタデータ) (2024-09-24T04:48:41Z) - Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - RTMDet: An Empirical Study of Designing Real-Time Object Detectors [13.09100888887757]
我々は、YOLO級数を超え、多くのオブジェクト認識タスクに容易に対応できる効率的なリアルタイム物体検出装置を開発した。
より良いトレーニング技術とともに、得られたオブジェクト検出器はRTMDetと呼ばれ、COCOでは52.8%AP、NVIDIA 3090 GPUでは300以上のFPSを達成している。
実験結果によって、多くの物体認識タスクのための汎用的リアルタイム物体検出器の設計に関する新たな洞察が得られればと願っている。
論文 参考訳(メタデータ) (2022-12-14T18:50:20Z) - MAPLE-X: Latency Prediction with Explicit Microprocessor Prior Knowledge [87.41163540910854]
ディープニューラルネットワーク(DNN)レイテンシのキャラクタリゼーションは、時間を要するプロセスである。
ハードウェアデバイスの事前知識とDNNアーキテクチャのレイテンシを具体化し,MAPLEを拡張したMAPLE-Xを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:08:20Z) - MAPLE-Edge: A Runtime Latency Predictor for Edge Devices [80.01591186546793]
汎用ハードウェアの最先端遅延予測器であるMAPLEのエッジデバイス指向拡張であるMAPLE-Edgeを提案する。
MAPLEと比較して、MAPLE-Edgeはより小さなCPUパフォーマンスカウンタを使用して、ランタイムとターゲットデバイスプラットフォームを記述することができる。
また、共通ランタイムを共有するデバイスプール上でトレーニングを行うMAPLEとは異なり、MAPLE-Edgeは実行時に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2022-04-27T14:00:48Z) - ESOD:Edge-based Task Scheduling for Object Detection [8.347247774167109]
オブジェクト検出のための新しいエッジベースタスクスケジューリングフレームワーク(ESOD)を提案する。
その結果、ESODは平均22.13%と29.60%の遅延とエネルギー消費を削減できることがわかった。
論文 参考訳(メタデータ) (2021-10-20T13:43:51Z) - Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device [53.323878851563414]
本稿では,強化学習技術を用いたネットワーク拡張とpruning検索を組み込んだコンパイラ対応統一フレームワークを提案する。
具体的には,リカレントニューラルネットワーク(RNN)を用いて,ネットワークの強化とプルーニングの両面での統一的なスキームを自動で提供する。
提案手法は,モバイルデバイス上でのリアルタイム3次元物体検出を実現する。
論文 参考訳(メタデータ) (2020-12-26T19:41:15Z) - Expandable YOLO: 3D Object Detection from RGB-D Images [64.14512458954344]
本稿では,ステレオカメラから深度とカラー画像を入力する軽量物体検出器の構築を目的とする。
YOLOv3のネットワークアーキテクチャを中央から3Dに拡張することにより、深さ方向の出力が可能となる。
領域抽出結果の精度を確認するため、3次元空間におけるユニノン(IoU)の切断を導入する。
論文 参考訳(メタデータ) (2020-06-26T07:32:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。