論文の概要: A Comprehensive Evaluation of YOLO-based Deer Detection Performance on Edge Devices
- arxiv url: http://arxiv.org/abs/2509.20318v1
- Date: Wed, 24 Sep 2025 17:01:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.913673
- Title: A Comprehensive Evaluation of YOLO-based Deer Detection Performance on Edge Devices
- Title(参考訳): エッジデバイス上でのYOLOに基づく鹿検出性能の総合評価
- Authors: Bishal Adhikari, Jiajia Li, Eric S. Michel, Jacob Dykes, Te-Ming Paul Tseng, Mary Love Tagert, Dong Chen,
- Abstract要約: 鹿の侵入による農業の経済的損失は、アメリカで毎年数億ドルに上っていると推定され、伝統的な緩和戦略の不適切さを浮き彫りにした。
正確で効率的な鹿検出を必要とするインテリジェントで自律的なソリューションには、重要なニーズがある。
本研究では,シカ検出のための最先端深層学習モデルの総合的評価を行う。
- 参考スコア(独自算出の注目度): 6.486957474966142
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The escalating economic losses in agriculture due to deer intrusion, estimated to be in the hundreds of millions of dollars annually in the U.S., highlight the inadequacy of traditional mitigation strategies since these methods are often labor-intensive, costly, and ineffective for modern farming systems. To overcome this, there is a critical need for intelligent, autonomous solutions which require accurate and efficient deer detection. But the progress in this field is impeded by a significant gap in the literature, mainly the lack of a domain-specific, practical dataset and limited study on the on-field deployability of deer detection systems. Addressing this gap, this study presents a comprehensive evaluation of state-of-the-art deep learning models for deer detection in challenging real-world scenarios. The contributions of this work are threefold. First, we introduce a curated, publicly available dataset of 3,095 annotated images with bounding-box annotations of deer, derived from the Idaho Cameratraps project. Second, we provide an extensive comparative analysis of 12 model variants across four recent YOLO architectures(v8, v9, v10, and v11). Finally, we benchmarked performance on a high-end NVIDIA RTX 5090 GPU and evaluated on two representative edge computing platforms: Raspberry Pi 5 and NVIDIA Jetson AGX Xavier. Results show that the real-time detection is not feasible in Raspberry Pi without hardware-specific model optimization, while NVIDIA Jetson provides greater than 30 FPS with GPU-accelerated inference on 's' and 'n' series models. This study also reveals that smaller, architecturally advanced models such as YOLOv11n, YOLOv8s, and YOLOv9s offer the optimal balance of high accuracy (AP@.5 > 0.85) and computational efficiency (FPS > 30). To support further research, both the source code and datasets are publicly available at https://github.com/WinnerBishal/track-the-deer.
- Abstract(参考訳): 鹿の侵入による農業の経済的損失の増大は、現代の農業システムにとって労働集約的、費用がかかる、非効率な伝統的な緩和戦略の欠如を浮き彫りにしている。
これを解決するためには、正確で効率的な鹿検出を必要とするインテリジェントで自律的なソリューションが不可欠である。
しかし、この分野の進歩は、主にドメイン固有で実践的なデータセットの欠如と、鹿検出システムの現場展開可能性に関する限定的な研究など、文学における大きなギャップによって妨げられている。
このギャップに対処するため,本研究では,現実のシナリオに挑戦する鹿検出のための最先端のディープラーニングモデルの包括的評価を行う。
この作品の貢献は3倍である。
まず、Idaho Cameratrapsプロジェクトから派生した、鹿のバウンディングボックスアノテーション付き3,095の注釈付き画像のキュレートされた公開データセットを紹介した。
第2に、最近の4つのYOLOアーキテクチャ(v8、v9、v10、v11)において、12のモデル変種を広範囲に比較分析する。
最後に、ハイエンドのNVIDIA RTX 5090 GPUのパフォーマンスをベンチマークし、Raspberry Pi 5とNVIDIA Jetson AGX Xavierの2つの代表的なエッジコンピューティングプラットフォームで評価した。
その結果、Raspberry Piではハードウェア固有のモデル最適化なしでリアルタイム検出が実現不可能であることが示され、NVIDIA Jetsonは's'および'n'シリーズモデルでGPUアクセラレーションされた推論を備えた30FPS以上を提供する。
また, YOLOv11n, YOLOv8s, YOLOv9sなどの小型・小型のモデルでは, 高精度(AP@.5 > 0.85) と計算効率(FPS > 30)の最適バランスが得られた。
さらなる研究をサポートするため、ソースコードとデータセットはhttps://github.com/WinnerBishal/track-the-deer.comで公開されている。
関連論文リスト
- Accelerating Local AI on Consumer GPUs: A Hardware-Aware Dynamic Strategy for YOLOv10s [0.0]
アーキテクチャ変更を必要としないモデル非依存のアプローチであるTwo-Pass Adaptive Inferenceアルゴリズムを導入する。
5000イメージのCOCOデータセット上では、PyTorch Early-Exitベースラインの1.85倍の高速化を実現し、mAP損失は5.51%である。
論文 参考訳(メタデータ) (2025-09-09T17:13:31Z) - YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception [58.06752127687312]
高精度で軽量な物体検出器YOLOv13を提案する。
ハイパーグラフに基づく適応相関強化(HyperACE)機構を提案する。
また,FullPAD(Full-Pipeline Aggregation-and-Distribution)パラダイムを提案する。
論文 参考訳(メタデータ) (2025-06-21T15:15:03Z) - Small Object Detection with YOLO: A Performance Analysis Across Model Versions and Hardware [2.07180164747172]
本稿では,ONNX や OpenVINO などの人気ライブラリを用いて,Intel と CPU の高速化と検出精度について検討する。
画像内のオブジェクトサイズに対するこれらのYOLOモデルの感度を分析し、画像の総面積の1%、2.5%、5%を占めるオブジェクトを検出する際の性能を調べる。
論文 参考訳(メタデータ) (2025-04-14T05:49:31Z) - YOLOBench: Benchmarking Efficient Object Detectors on Embedded Systems [0.0873811641236639]
4つの異なるデータセットと4つの異なる組込みハードウェアプラットフォーム上で、550以上のYOLOベースのオブジェクト検出モデルからなるベンチマークであるYOLOBenchを提案する。
我々は,これらの検出器と固定訓練環境との公正かつ制御された比較を行うことにより,様々なモデルスケールのYOLOベースの1段検出器の精度と遅延数を収集する。
我々は、YOLOBenchのニューラルネットワーク探索で使用されるトレーニング不要な精度推定器を評価し、最先端のゼロコスト精度推定器はMACカウントのような単純なベースラインよりも優れており、その一部は効果的に使用できることを示した。
論文 参考訳(メタデータ) (2023-07-26T01:51:10Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - Pushing the Limits of Asynchronous Graph-based Object Detection with
Event Cameras [62.70541164894224]
低計算を維持しながら、そのようなモデルの深さと複雑さを拡大できるアーキテクチャ選択をいくつか導入する。
我々の手法は、密度の高いグラフニューラルネットワークよりも3.7倍高速に動作し、前方通過はわずか8.4msである。
論文 参考訳(メタデータ) (2022-11-22T15:14:20Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Evaluation of Thermal Imaging on Embedded GPU Platforms for Application
in Vehicular Assistance Systems [0.5156484100374058]
本研究は、スマートで安全な車両用サーマルオブジェクト検出のリアルタイム性能を評価することに焦点を当てた。
35,000以上の異なるフレームからなる新しい大規模熱データセットを取得する。
トレーニングネットワークの有効性は、様々な定量的指標を用いて、広範なテストデータに基づいて検証される。
論文 参考訳(メタデータ) (2022-01-05T15:36:25Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。