論文の概要: YOLO-Z: Improving small object detection in YOLOv5 for autonomous
vehicles
- arxiv url: http://arxiv.org/abs/2112.11798v1
- Date: Wed, 22 Dec 2021 11:03:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 18:01:37.862647
- Title: YOLO-Z: Improving small object detection in YOLOv5 for autonomous
vehicles
- Title(参考訳): YOLO-Z:自動運転車用YOLOv5の小型物体検出の改良
- Authors: Aduen Benjumea, Izzedin Teeti, Fabio Cuzzolin, Andrew Bradley
- Abstract要約: 本研究は, YOLOv5物体検出器を改良して, 小型物体の検出性能を向上させる方法について検討した。
我々は, YOLO-Z'と命名し, 50%IOUで小さな物体を検出する場合に, 最大6.9%のmAP向上を示すモデルを提案する。
本研究の目的は、YOLOv5などの一般的な検出器を調整して特定のタスクに対処する可能性について、今後の研究を知らせることである。
- 参考スコア(独自算出の注目度): 5.765622319599904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As autonomous vehicles and autonomous racing rise in popularity, so does the
need for faster and more accurate detectors. While our naked eyes are able to
extract contextual information almost instantly, even from far away, image
resolution and computational resources limitations make detecting smaller
objects (that is, objects that occupy a small pixel area in the input image) a
genuinely challenging task for machines and a wide-open research field. This
study explores how the popular YOLOv5 object detector can be modified to
improve its performance in detecting smaller objects, with a particular
application in autonomous racing. To achieve this, we investigate how replacing
certain structural elements of the model (as well as their connections and
other parameters) can affect performance and inference time. In doing so, we
propose a series of models at different scales, which we name `YOLO-Z', and
which display an improvement of up to 6.9% in mAP when detecting smaller
objects at 50% IOU, at the cost of just a 3ms increase in inference time
compared to the original YOLOv5. Our objective is to inform future research on
the potential of adjusting a popular detector such as YOLOv5 to address
specific tasks and provide insights on how specific changes can impact small
object detection. Such findings, applied to the broader context of autonomous
vehicles, could increase the amount of contextual information available to such
systems.
- Abstract(参考訳): 自動運転車や自動運転レースの人気が高まるにつれ、より高速で正確な検知器も必要になる。
私たちの裸眼は、ほぼ瞬時に、たとえ遠くからでもコンテキスト情報を抽出することができるが、画像解像度と計算資源の制限により、小さなオブジェクト(つまり、入力画像の小さなピクセル領域を占めるオブジェクト)の検出は、マシンと幅広い研究分野において真に困難なタスクとなる。
本研究は, YOLOv5物体検出器を改良して, 小型物体の検出性能を向上し, 自律走行に応用する方法について検討した。
そこで本研究では,モデルの構造的要素(接続やパラメータなど)の置き換えが,性能や推論時間に与える影響について検討する。
そこで我々は,小型物体を50%IOUで検出した場合のmAPの最大6.9%の改善を,従来のYOLOv5に比べてわずか3msの推算時間で示した。
我々の目標は、YOLOv5のような一般的な検出器を調整して特定のタスクに対処し、特定の変化が小さな物体検出にどのように影響するかを、将来の研究に知らせることである。
このような発見は、自動運転車の広い文脈に適用され、そのようなシステムで利用可能なコンテキスト情報量を増やす可能性がある。
関連論文リスト
- SOD-YOLOv8 -- Enhancing YOLOv8 for Small Object Detection in Traffic Scenes [1.3812010983144802]
Small Object Detection YOLOv8 (SOD-YOLOv8) は、多数の小さなオブジェクトを含むシナリオ用に設計されている。
SOD-YOLOv8は小さなオブジェクト検出を大幅に改善し、様々なメトリクスで広く使われているモデルを上回っている。
ダイナミックな現実世界の交通シーンでは、SOD-YOLOv8は様々な状況で顕著な改善を示した。
論文 参考訳(メタデータ) (2024-08-08T23:05:25Z) - Visible and Clear: Finding Tiny Objects in Difference Map [50.54061010335082]
本稿では,検出モデルに自己再構成機構を導入し,それと微小物体との強い相関関係を明らかにする。
具体的には、再構成画像と入力の差分マップを構築して、検出器の首の内側に再構成ヘッドを配置し、小さな物体に対して高い感度を示す。
さらに、小さな特徴表現をより明確にするために、差分マップガイド機能拡張(DGFE)モジュールを開発する。
論文 参考訳(メタデータ) (2024-05-18T12:22:26Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Fast and Accurate Object Detection on Asymmetrical Receptive Field [0.0]
本稿では,物体検出精度を受容場の変化の観点から改善する手法を提案する。
YOLOv5の頭部の構造は、非対称なプール層を付加することによって改変される。
本稿では, 従来の YOLOv5 モデルと比較し, いくつかのパラメータから解析する。
論文 参考訳(メタデータ) (2023-03-15T23:59:18Z) - Recurrent Vision Transformers for Object Detection with Event Cameras [62.27246562304705]
本稿では,イベントカメラを用いた物体検出のための新しいバックボーンであるリカレントビジョントランス (RVT) を提案する。
RVTは、イベントベースのオブジェクト検出で最先端のパフォーマンスに到達するために、ゼロからトレーニングすることができる。
私たちの研究は、イベントベースのビジョンを超えた研究に役立ち得る効果的なデザイン選択に、新たな洞察をもたらします。
論文 参考訳(メタデータ) (2022-12-11T20:28:59Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Evaluation of YOLO Models with Sliced Inference for Small Object
Detection [0.0]
この研究は、小さなオブジェクト検出のためにYOLOv5とYOLOXモデルをベンチマークすることを目的としている。
スライスされた微調整とスライスされた推論が組み合わさって全てのモデルに大幅な改善をもたらした。
論文 参考訳(メタデータ) (2022-03-09T15:24:30Z) - Small Object Detection using Deep Learning [0.28675177318965034]
提案システムは,高速物体検出モデル(YOLO)のフレーバーであるTiny YOLOv3(Tiny YOLOv3)を構築・使用した。
提案したアーキテクチャは、以前のYOLOバージョンに比べて大幅に性能が向上している。
論文 参考訳(メタデータ) (2022-01-10T09:58:25Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。