論文の概要: Real-Time Flying Object Detection with YOLOv8
- arxiv url: http://arxiv.org/abs/2305.09972v1
- Date: Wed, 17 May 2023 06:11:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 17:24:16.456458
- Title: Real-Time Flying Object Detection with YOLOv8
- Title(参考訳): YOLOv8によるリアルタイム飛行物体検出
- Authors: Dillon Reis, Jordan Kupec, Jacqueline Hong, Ahmad Daoudi
- Abstract要約: 本稿では,移動学習やさらなる研究に使用できる飛行物体のリアルタイム検出のための一般化モデルを提案する。
次に、これらの学習パラメータを実世界の環境をよりよく表現したデータセット上で転送学習を行う。
我々の最終一般化モデルは、0.685のmAP50-95と50fpsの1080pビデオの平均推論速度を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a generalized model for real-time detection of flying
objects that can be used for transfer learning and further research, as well as
a refined model that is ready for implementation. We achieve this by training
our first generalized model on a data set containing 40 different classes of
flying objects, forcing the model to extract abstract feature representations.
We then perform transfer learning with these learned parameters on a data set
more representative of real world environments (i.e., higher frequency of
occlusion, small spatial sizes, rotations, etc.) to generate our refined model.
Object detection of flying objects remains challenging due to large variance
object spatial sizes/aspect ratios, rate of speed, occlusion, and clustered
backgrounds. To address some of the presented challenges while simultaneously
maximizing performance, we utilize the current state of the art single-shot
detector, YOLOv8, in an attempt to find the best tradeoff between inference
speed and mAP. While YOLOv8 is being regarded as the new state-of-the-art, an
official paper has not been provided. Thus, we provide an in-depth explanation
of the new architecture and functionality that YOLOv8 has adapted. Our final
generalized model achieves an mAP50-95 of 0.685 and average inference speed on
1080p videos of 50 fps. Our final refined model maintains this inference speed
and achieves an improved mAP50-95 of 0.835.
- Abstract(参考訳): 本稿では,移動学習やさらなる研究に使用できる飛行物体のリアルタイム検出のための一般化モデルと,実装可能な改良モデルを提案する。
我々は、40種類の飛行物体を含むデータセット上で、最初の一般化モデルを訓練し、抽象的な特徴表現を抽出することを強制する。
次に,より代表的な実環境(咬合頻度,小空間サイズ,回転数など)のデータセット上で,これらの学習パラメータを用いて転送学習を行い,改良したモデルを生成する。
空飛ぶ物体の物体検出は、大きな分散オブジェクトの空間サイズ/アスペクト比、速度の速度、閉塞、クラスタ化された背景のため、依然として困難である。
提案する課題のいくつかに,性能を最大化すると同時に対処するために,最先端のシングルショット検出器であるyolov8を用いて,推論速度とマップ間の最善のトレードオフを求める。
YOLOv8は新しい最先端と見なされているが、公式な論文は提供されていない。
そこで我々は、yolov8が採用した新しいアーキテクチャと機能の詳細な説明を提供する。
我々の最終一般化モデルは、0.685のmAP50-95と50fpsの1080pビデオの平均推論速度を達成する。
最終改良モデルは、この推論速度を維持し、改良されたmAP50-95の0.835を達成する。
関連論文リスト
- Optimizing YOLO Architectures for Optimal Road Damage Detection and Classification: A Comparative Study from YOLOv7 to YOLOv10 [0.0]
本稿では,ディープラーニングモデルを用いた道路損傷検出のための総合ワークフローを提案する。
ハードウェアの制約を満たすため、大きな画像が収穫され、軽量モデルが利用される。
提案手法では,コーディネートアテンションレイヤを備えたカスタムYOLOv7モデルや,Tiny YOLOv7モデルなど,複数のモデルアーキテクチャを採用している。
論文 参考訳(メタデータ) (2024-10-10T22:55:12Z) - BootsTAP: Bootstrapped Training for Tracking-Any-Point [62.585297341343505]
Tracking-Any-Point (TAP) は、ビデオ中の固体表面上の任意の点を追跡するアルゴリズムとして形式化することができる。
大規模でラベルなし、未修正のリアルワールドデータが、最小限のアーキテクチャ変更でTAPモデルを改善することができることを示す。
我々は,TAP-Vidベンチマークにおける最先端性能が,従来の結果よりも広いマージンで上回っていることを示す。
論文 参考訳(メタデータ) (2024-02-01T18:38:55Z) - From Blurry to Brilliant Detection: YOLOv5-Based Aerial Object Detection
with Super Resolution [4.107182710549721]
超解像度と適応型軽量YOLOv5アーキテクチャを組み合わせた革新的なアプローチを提案する。
実験により,小型で密集した物体の検出において,モデルの性能が優れていることを示した。
論文 参考訳(メタデータ) (2024-01-26T05:50:58Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Exploring the Effectiveness of Dataset Synthesis: An application of
Apple Detection in Orchards [68.95806641664713]
本研究では,リンゴ樹の合成データセットを生成するための安定拡散2.1-baseの有用性について検討する。
我々は、現実世界のリンゴ検出データセットでリンゴを予測するために、YOLOv5mオブジェクト検出モデルを訓練する。
その結果、実世界の画像でトレーニングされたベースラインモデルと比較して、生成データでトレーニングされたモデルはわずかに性能が劣っていることがわかった。
論文 参考訳(メタデータ) (2023-06-20T09:46:01Z) - Exploring Object-Centric Temporal Modeling for Efficient Multi-View 3D
Object Detection [20.161887223481994]
マルチビュー3Dオブジェクト検出のための長周期モデリングフレームワークStreamPETRを提案する。
StreamPETRは、単一フレームのベースラインと比較して、無視可能なコストでのみ、大幅なパフォーマンス向上を実現している。
軽量版は45.0%のmAPと31.7のFPSを実現し、2.3%のmAPと1.8倍の高速FPSを達成している。
論文 参考訳(メタデータ) (2023-03-21T15:19:20Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - Could Giant Pretrained Image Models Extract Universal Representations? [94.97056702288317]
本稿では,多種多様なコンピュータビジョンタスクに適用した凍結事前学習モデルについて述べる。
私たちの研究は、この凍結した設定にどのような事前学習タスクが最適か、凍結した設定を様々な下流タスクに柔軟にする方法、より大きなモデルサイズの影響について、質問に答えています。
論文 参考訳(メタデータ) (2022-11-03T17:57:10Z) - Analysis and Adaptation of YOLOv4 for Object Detection in Aerial Images [0.0]
本研究は,空中画像中の物体とその位置を予測するためのYOLOv4フレームワークの適応性を示す。
トレーニングされたモデルは平均的な平均精度(mAP)が45.64%となり、推論速度はTesla K80 GPUで8.7FPSに達した。
いくつかの現代の空中物体検出器との比較研究により、YOLOv4はより優れた性能を示し、航空プラットフォームに組み込むのにより適した検出アルゴリズムが示唆された。
論文 参考訳(メタデータ) (2022-03-18T23:51:09Z) - Evaluation of YOLO Models with Sliced Inference for Small Object
Detection [0.0]
この研究は、小さなオブジェクト検出のためにYOLOv5とYOLOXモデルをベンチマークすることを目的としている。
スライスされた微調整とスライスされた推論が組み合わさって全てのモデルに大幅な改善をもたらした。
論文 参考訳(メタデータ) (2022-03-09T15:24:30Z) - Workshop on Autonomous Driving at CVPR 2021: Technical Report for
Streaming Perception Challenge [57.647371468876116]
本稿では,現実的な自律運転シナリオのためのリアルタイム2次元物体検出システムについて紹介する。
私たちの検出器は、YOLOXと呼ばれる新しい設計のYOLOモデルで構築されています。
Argoverse-HDデータセットでは,検出のみのトラック/トラックで2位を7.8/6.1上回る41.0ストリーミングAPを達成した。
論文 参考訳(メタデータ) (2021-07-27T06:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。