論文の概要: YOLOBench: Benchmarking Efficient Object Detectors on Embedded Systems
- arxiv url: http://arxiv.org/abs/2307.13901v2
- Date: Mon, 21 Aug 2023 17:55:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 22:46:56.550375
- Title: YOLOBench: Benchmarking Efficient Object Detectors on Embedded Systems
- Title(参考訳): YOLOBench: 組み込みシステム上での効率的なオブジェクト検出器のベンチマーク
- Authors: Ivan Lazarevich and Matteo Grimaldi and Ravish Kumar and Saptarshi
Mitra and Shahrukh Khan and Sudhakar Sah
- Abstract要約: 4つの異なるデータセットと4つの異なる組込みハードウェアプラットフォーム上で、550以上のYOLOベースのオブジェクト検出モデルからなるベンチマークであるYOLOBenchを提案する。
我々は,これらの検出器と固定訓練環境との公正かつ制御された比較を行うことにより,様々なモデルスケールのYOLOベースの1段検出器の精度と遅延数を収集する。
我々は、YOLOBenchのニューラルネットワーク探索で使用されるトレーニング不要な精度推定器を評価し、最先端のゼロコスト精度推定器はMACカウントのような単純なベースラインよりも優れており、その一部は効果的に使用できることを示した。
- 参考スコア(独自算出の注目度): 0.0873811641236639
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present YOLOBench, a benchmark comprised of 550+ YOLO-based object
detection models on 4 different datasets and 4 different embedded hardware
platforms (x86 CPU, ARM CPU, Nvidia GPU, NPU). We collect accuracy and latency
numbers for a variety of YOLO-based one-stage detectors at different model
scales by performing a fair, controlled comparison of these detectors with a
fixed training environment (code and training hyperparameters).
Pareto-optimality analysis of the collected data reveals that, if modern
detection heads and training techniques are incorporated into the learning
process, multiple architectures of the YOLO series achieve a good
accuracy-latency trade-off, including older models like YOLOv3 and YOLOv4. We
also evaluate training-free accuracy estimators used in neural architecture
search on YOLOBench and demonstrate that, while most state-of-the-art zero-cost
accuracy estimators are outperformed by a simple baseline like MAC count, some
of them can be effectively used to predict Pareto-optimal detection models. We
showcase that by using a zero-cost proxy to identify a YOLO architecture
competitive against a state-of-the-art YOLOv8 model on a Raspberry Pi 4 CPU.
The code and data are available at
https://github.com/Deeplite/deeplite-torch-zoo
- Abstract(参考訳): これは4つの異なるデータセットと4つの組み込みハードウェアプラットフォーム(x86 cpu, arm cpu, nvidia gpu, npu)上の550以上のyoloベースのオブジェクト検出モデルで構成されるベンチマークである。
異なるモデルスケールで様々なヨーロベースの1段検出器の精度と待ち時間数を、固定されたトレーニング環境(コードとトレーニングハイパーパラメータ)との公正な比較により収集する。
収集したデータのパレート最適分析により、現代の検出ヘッドとトレーニング技術が学習プロセスに組み込まれている場合、YOLOシリーズの複数のアーキテクチャは、YOLOv3やYOLOv4といった古いモデルを含む、良好な精度とレイテンシのトレードオフを実現することが明らかになった。
また、yolobenchのニューラルアーキテクチャ探索で使用されるトレーニングフリー精度推定器を評価し、最先端のゼロコスト精度推定器はmacカウントのような単純なベースラインよりも優れているが、そのいくつかはパレート最適検出モデルの予測に効果的に使用できることを示した。
Raspberry Pi 4 CPU上での最先端のYOLOv8モデルと競合するYOLOアーキテクチャを,ゼロコストプロキシを用いて識別できることを示します。
コードとデータはhttps://github.com/deeplite/deeplite-torch-zooで入手できる。
関連論文リスト
- MCUBench: A Benchmark of Tiny Object Detectors on MCUs [36.77761421733794]
MCUBenchは、7つの異なるMCUにわたるVOCデータセットで評価された100以上のYOLOベースのオブジェクト検出モデルを備えたベンチマークである。
このベンチマークは、さまざまな入力解像度とYOLOベースのワンステージ検出器に対する平均精度、レイテンシ、RAM、Flash使用率に関する詳細なデータを提供する。
論文 参考訳(メタデータ) (2024-09-27T16:02:56Z) - Quantizing YOLOv7: A Comprehensive Study [0.0]
本稿では,最先端のYOLOv7モデルの事前学習重みに対する様々な量子化スキームの有効性について検討する。
その結果、4ビット量子化と異なる粒度の組合せを組み合わせることで、均一な量子化と非一様量子化のための3.92倍と3.86倍のメモリ節約が得られることがわかった。
論文 参考訳(メタデータ) (2024-07-06T03:23:04Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - MODIPHY: Multimodal Obscured Detection for IoT using PHantom Convolution-Enabled Faster YOLO [10.183459286746196]
YOLO Phantomは、史上最小のYOLOモデルのひとつです。
YOLO Phantomは最新のYOLOv8nモデルと同等の精度を実現し、パラメータとモデルサイズを同時に削減する。
実際の有効性は、高度な低照度カメラとRGBカメラを備えたIoTプラットフォーム上で実証され、AWSベースの通知エンドポイントにシームレスに接続される。
論文 参考訳(メタデータ) (2024-02-12T18:56:53Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - Gold-YOLO: Efficient Object Detector via Gather-and-Distribute Mechanism [40.31805155724484]
Gold-YOLOと名付けられた新しい設計モデルは、マルチスケールの機能融合能力を向上する。
YOLOシリーズにMAEスタイルの事前トレーニングを初めて実装し、YOLOシリーズモデルが教師なし事前トレーニングの恩恵を受けることができるようにした。
論文 参考訳(メタデータ) (2023-09-20T14:03:47Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。