論文の概要: Squeezed Edge YOLO: Onboard Object Detection on Edge Devices
- arxiv url: http://arxiv.org/abs/2312.11716v1
- Date: Mon, 18 Dec 2023 21:27:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 17:47:03.172290
- Title: Squeezed Edge YOLO: Onboard Object Detection on Edge Devices
- Title(参考訳): Squeezed Edge YOLO:エッジデバイス上でのオブジェクト検出
- Authors: Edward Humes, Mozhgan Navardi, Tinoosh Mohsenin
- Abstract要約: 本稿では,圧縮対象検出モデルであるSqueezed Edge YOLOを提案する。
RISC-Vコア8基のGAP8プロセッサとメモリ4GBのNVIDIA Jetson Nanoを搭載している。
実験の結果、Squeezed Edge YOLOモデルのサイズは8倍に最適化され、エネルギー効率が76%向上し、3.3倍速くなった。
- 参考スコア(独自算出の注目度): 0.5893124686141782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Demand for efficient onboard object detection is increasing due to its key
role in autonomous navigation. However, deploying object detection models such
as YOLO on resource constrained edge devices is challenging due to the high
computational requirements of such models. In this paper, an compressed object
detection model named Squeezed Edge YOLO is examined. This model is compressed
and optimized to kilobytes of parameters in order to fit onboard such edge
devices. To evaluate Squeezed Edge YOLO, two use cases - human and shape
detection - are used to show the model accuracy and performance. Moreover, the
model is deployed onboard a GAP8 processor with 8 RISC-V cores and an NVIDIA
Jetson Nano with 4GB of memory. Experimental results show Squeezed Edge YOLO
model size is optimized by a factor of 8x which leads to 76% improvements in
energy efficiency and 3.3x faster throughout.
- Abstract(参考訳): 自律ナビゲーションにおいて重要な役割を担っているため、効率的な搭載物体検出への需要が増加している。
しかし、リソース制約エッジデバイスにYOLOなどのオブジェクト検出モデルをデプロイすることは、そのようなモデルの高い計算要求のため困難である。
本稿では,Squeezed Edge YOLOという圧縮物体検出モデルについて検討する。
このモデルは圧縮され、エッジデバイスに収めるためにキロバイトのパラメータに最適化される。
Squeezed Edge YOLOを評価するために、モデル精度と性能を示すために、人間と形状検出の2つのユースケースが使用される。
さらに、モデルは8つのRISC-Vコアを持つGAP8プロセッサと4GBのメモリを持つNVIDIA Jetson Nanoにデプロイされる。
実験の結果,エッジヨーロモデルのサイズは8倍に最適化され,エネルギー効率が76%向上し,全体の3.3倍高速化された。
関連論文リスト
- What is YOLOv9: An In-Depth Exploration of the Internal Features of the Next-Generation Object Detector [0.0]
本研究は, YOLOv9オブジェクト検出モデルに焦点をあて, アーキテクチャの革新, トレーニング方法論, 性能改善に焦点をあてる。
汎用高効率層集約ネットワークGELANやProgrammable Gradient Information PGIといった重要な進歩は、特徴抽出と勾配流を著しく向上させる。
本稿では, YOLOv9の内部特徴とその実世界の応用性について, リアルタイム物体検出の最先端技術として確立した。
論文 参考訳(メタデータ) (2024-09-12T07:46:58Z) - ParFormer: A Vision Transformer with Parallel Mixer and Sparse Channel Attention Patch Embedding [9.144813021145039]
本稿では、並列ミキサーとスパースチャネル注意パッチ埋め込み(SCAPE)を組み込んだ視覚変換器であるParFormerを紹介する。
ParFormerは、畳み込み機構とアテンション機構を組み合わせることで、特徴抽出を改善する。
エッジデバイスのデプロイメントでは、ParFormer-Tのスループットは278.1イメージ/秒で、EdgeNeXt-Sよりも1.38ドル高い。
より大型のParFormer-Lは83.5%のTop-1精度に達し、精度と効率のバランスの取れたトレードオフを提供する。
論文 参考訳(メタデータ) (2024-03-22T07:32:21Z) - MODIPHY: Multimodal Obscured Detection for IoT using PHantom Convolution-Enabled Faster YOLO [10.183459286746196]
YOLO Phantomは、史上最小のYOLOモデルのひとつです。
YOLO Phantomは最新のYOLOv8nモデルと同等の精度を実現し、パラメータとモデルサイズを同時に削減する。
実際の有効性は、高度な低照度カメラとRGBカメラを備えたIoTプラットフォーム上で実証され、AWSベースの通知エンドポイントにシームレスに接続される。
論文 参考訳(メタデータ) (2024-02-12T18:56:53Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - SATAY: A Streaming Architecture Toolflow for Accelerating YOLO Models on
FPGA Devices [48.47320494918925]
この作業は、超低レイテンシアプリケーションのために、最先端のオブジェクト検出モデルをFPGAデバイスにデプロイする際の課題に対処する。
YOLOアクセラレータにはストリーミングアーキテクチャ設計を採用しており、チップ上で完全なモデルを深くパイプライン化して実装しています。
データフロー方式でYOLOモデルの動作をサポートする新しいハードウェアコンポーネントを導入し、オンチップメモリリソースの制限に対処するために、オフチップメモリバッファリングを導入する。
論文 参考訳(メタデータ) (2023-09-04T13:15:01Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - FasterX: Real-Time Object Detection Based on Edge GPUs for UAV
Applications [16.51060054575739]
我々は,エッジGPU上でのリアルタイム物体検出のためのYOLOXモデルに基づく,FasterXという新しい軽量ディープラーニングアーキテクチャを提案する。
まず,YOLOXのオリジナルヘッドを代替し,小型物体のより優れた検出を行うために,有効で軽量なPixSFヘッドを設計する。
次に、SlimFPNと呼ばれるネック層のスリム構造を開発し、精度と速度のトレードオフであるネットワークのパラメータを低減する。
論文 参考訳(メタデータ) (2022-09-07T13:52:25Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - YOLO-ReT: Towards High Accuracy Real-time Object Detection on Edge GPUs [14.85882314822983]
ディープニューラルネットワーク(DNN)ベースのオブジェクト検出モデルをエッジデバイスにマップするには、通常、そのようなモデルを著しく圧縮する必要がある。
本稿では,マルチスケール機能インタラクションのためのエッジGPUフレンドリなモジュールを提案する。
また,様々なタスク間の翻訳情報の流れの変化にインスパイアされた,新たな学習バックボーンの導入を提案する。
論文 参考訳(メタデータ) (2021-10-26T14:02:59Z) - MobileDets: Searching for Object Detection Architectures for Mobile
Accelerators [61.30355783955777]
逆ボトルネック層は、モバイルデバイス上の最先端のオブジェクト検出モデルにおいて、主要なビルディングブロックとなっている。
通常の畳み込みは、アクセラレーターにおけるオブジェクト検出の遅延精度トレードオフを高める強力なコンポーネントである。
我々は、モバイルアクセラレーター全体で最先端の成果を得られるオブジェクト検出モデル、MobileDetsのファミリーを得る。
論文 参考訳(メタデータ) (2020-04-30T00:21:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。