論文の概要: Real-Time Flying Object Detection with YOLOv8
- arxiv url: http://arxiv.org/abs/2305.09972v1
- Date: Wed, 17 May 2023 06:11:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 17:24:16.456458
- Title: Real-Time Flying Object Detection with YOLOv8
- Title(参考訳): YOLOv8によるリアルタイム飛行物体検出
- Authors: Dillon Reis, Jordan Kupec, Jacqueline Hong, Ahmad Daoudi
- Abstract要約: 本稿では,移動学習やさらなる研究に使用できる飛行物体のリアルタイム検出のための一般化モデルを提案する。
次に、これらの学習パラメータを実世界の環境をよりよく表現したデータセット上で転送学習を行う。
我々の最終一般化モデルは、0.685のmAP50-95と50fpsの1080pビデオの平均推論速度を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a generalized model for real-time detection of flying
objects that can be used for transfer learning and further research, as well as
a refined model that is ready for implementation. We achieve this by training
our first generalized model on a data set containing 40 different classes of
flying objects, forcing the model to extract abstract feature representations.
We then perform transfer learning with these learned parameters on a data set
more representative of real world environments (i.e., higher frequency of
occlusion, small spatial sizes, rotations, etc.) to generate our refined model.
Object detection of flying objects remains challenging due to large variance
object spatial sizes/aspect ratios, rate of speed, occlusion, and clustered
backgrounds. To address some of the presented challenges while simultaneously
maximizing performance, we utilize the current state of the art single-shot
detector, YOLOv8, in an attempt to find the best tradeoff between inference
speed and mAP. While YOLOv8 is being regarded as the new state-of-the-art, an
official paper has not been provided. Thus, we provide an in-depth explanation
of the new architecture and functionality that YOLOv8 has adapted. Our final
generalized model achieves an mAP50-95 of 0.685 and average inference speed on
1080p videos of 50 fps. Our final refined model maintains this inference speed
and achieves an improved mAP50-95 of 0.835.
- Abstract(参考訳): 本稿では,移動学習やさらなる研究に使用できる飛行物体のリアルタイム検出のための一般化モデルと,実装可能な改良モデルを提案する。
我々は、40種類の飛行物体を含むデータセット上で、最初の一般化モデルを訓練し、抽象的な特徴表現を抽出することを強制する。
次に,より代表的な実環境(咬合頻度,小空間サイズ,回転数など)のデータセット上で,これらの学習パラメータを用いて転送学習を行い,改良したモデルを生成する。
空飛ぶ物体の物体検出は、大きな分散オブジェクトの空間サイズ/アスペクト比、速度の速度、閉塞、クラスタ化された背景のため、依然として困難である。
提案する課題のいくつかに,性能を最大化すると同時に対処するために,最先端のシングルショット検出器であるyolov8を用いて,推論速度とマップ間の最善のトレードオフを求める。
YOLOv8は新しい最先端と見なされているが、公式な論文は提供されていない。
そこで我々は、yolov8が採用した新しいアーキテクチャと機能の詳細な説明を提供する。
我々の最終一般化モデルは、0.685のmAP50-95と50fpsの1080pビデオの平均推論速度を達成する。
最終改良モデルは、この推論速度を維持し、改良されたmAP50-95の0.835を達成する。
関連論文リスト
- YOLO-TLA: An Efficient and Lightweight Small Object Detection Model
based on YOLOv5 [17.525977065621724]
YOLO-TLAは、YOLOv5上に構築された高度な物体検出モデルである。
まず、ネックネットワークピラミッドアーキテクチャにおいて、小さなオブジェクトに対する検出層を新たに導入する。
このモジュールはスライディングウィンドウの特徴抽出を使い、計算要求とパラメータ数の両方を効果的に最小化する。
論文 参考訳(メタデータ) (2024-02-22T05:55:17Z) - From Blurry to Brilliant Detection: YOLOv5-Based Aerial Object Detection
with Super Resolution [4.107182710549721]
超解像度と適応型軽量YOLOv5アーキテクチャを組み合わせた革新的なアプローチを提案する。
実験により,小型で密集した物体の検出において,モデルの性能が優れていることを示した。
論文 参考訳(メタデータ) (2024-01-26T05:50:58Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Simplifying Model-based RL: Learning Representations, Latent-space
Models, and Policies with One Objective [142.36200080384145]
自己整合性を維持しつつ高いリターンを達成するために,潜在空間モデルとポリシーを協調的に最適化する単一目的を提案する。
得られたアルゴリズムは, モデルベースおよびモデルフリーRL手法のサンプル効率に適合するか, 改善することを示した。
論文 参考訳(メタデータ) (2022-09-18T03:51:58Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Analysis and Adaptation of YOLOv4 for Object Detection in Aerial Images [0.0]
本研究は,空中画像中の物体とその位置を予測するためのYOLOv4フレームワークの適応性を示す。
トレーニングされたモデルは平均的な平均精度(mAP)が45.64%となり、推論速度はTesla K80 GPUで8.7FPSに達した。
いくつかの現代の空中物体検出器との比較研究により、YOLOv4はより優れた性能を示し、航空プラットフォームに組み込むのにより適した検出アルゴリズムが示唆された。
論文 参考訳(メタデータ) (2022-03-18T23:51:09Z) - Evaluation of YOLO Models with Sliced Inference for Small Object
Detection [0.0]
この研究は、小さなオブジェクト検出のためにYOLOv5とYOLOXモデルをベンチマークすることを目的としている。
スライスされた微調整とスライスされた推論が組み合わさって全てのモデルに大幅な改善をもたらした。
論文 参考訳(メタデータ) (2022-03-09T15:24:30Z) - YOLO-ReT: Towards High Accuracy Real-time Object Detection on Edge GPUs [14.85882314822983]
ディープニューラルネットワーク(DNN)ベースのオブジェクト検出モデルをエッジデバイスにマップするには、通常、そのようなモデルを著しく圧縮する必要がある。
本稿では,マルチスケール機能インタラクションのためのエッジGPUフレンドリなモジュールを提案する。
また,様々なタスク間の翻訳情報の流れの変化にインスパイアされた,新たな学習バックボーンの導入を提案する。
論文 参考訳(メタデータ) (2021-10-26T14:02:59Z) - Workshop on Autonomous Driving at CVPR 2021: Technical Report for
Streaming Perception Challenge [57.647371468876116]
本稿では,現実的な自律運転シナリオのためのリアルタイム2次元物体検出システムについて紹介する。
私たちの検出器は、YOLOXと呼ばれる新しい設計のYOLOモデルで構築されています。
Argoverse-HDデータセットでは,検出のみのトラック/トラックで2位を7.8/6.1上回る41.0ストリーミングAPを達成した。
論文 参考訳(メタデータ) (2021-07-27T06:36:06Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - Learning Global Structure Consistency for Robust Object Tracking [57.736915865309165]
この作品は、シーン全体の即時的なバリエーションを考慮に入れている。
本稿では,グローバルな構造的一貫性を短時間で活用する方法を学習する,効率的かつ効率的な短期モデルを提案する。
提案したトラッカーが2つの挑戦シナリオに対処し,大規模ベンチマークで検証できることを実証的に検証する。
論文 参考訳(メタデータ) (2020-08-26T19:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。