論文の概要: YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception
- arxiv url: http://arxiv.org/abs/2506.17733v1
- Date: Sat, 21 Jun 2025 15:15:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.56051
- Title: YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception
- Title(参考訳): YOLOv13:ハイパーグラフによる適応型視覚認識によるリアルタイム物体検出
- Authors: Mengqi Lei, Siqi Li, Yihong Wu, Han Hu, You Zhou, Xinhu Zheng, Guiguang Ding, Shaoyi Du, Zongze Wu, Yue Gao,
- Abstract要約: 高精度で軽量な物体検出器YOLOv13を提案する。
ハイパーグラフに基づく適応相関強化(HyperACE)機構を提案する。
また,FullPAD(Full-Pipeline Aggregation-and-Distribution)パラダイムを提案する。
- 参考スコア(独自算出の注目度): 44.76134548023668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The YOLO series models reign supreme in real-time object detection due to their superior accuracy and computational efficiency. However, both the convolutional architectures of YOLO11 and earlier versions and the area-based self-attention mechanism introduced in YOLOv12 are limited to local information aggregation and pairwise correlation modeling, lacking the capability to capture global multi-to-multi high-order correlations, which limits detection performance in complex scenarios. In this paper, we propose YOLOv13, an accurate and lightweight object detector. To address the above-mentioned challenges, we propose a Hypergraph-based Adaptive Correlation Enhancement (HyperACE) mechanism that adaptively exploits latent high-order correlations and overcomes the limitation of previous methods that are restricted to pairwise correlation modeling based on hypergraph computation, achieving efficient global cross-location and cross-scale feature fusion and enhancement. Subsequently, we propose a Full-Pipeline Aggregation-and-Distribution (FullPAD) paradigm based on HyperACE, which effectively achieves fine-grained information flow and representation synergy within the entire network by distributing correlation-enhanced features to the full pipeline. Finally, we propose to leverage depthwise separable convolutions to replace vanilla large-kernel convolutions, and design a series of blocks that significantly reduce parameters and computational complexity without sacrificing performance. We conduct extensive experiments on the widely used MS COCO benchmark, and the experimental results demonstrate that our method achieves state-of-the-art performance with fewer parameters and FLOPs. Specifically, our YOLOv13-N improves mAP by 3.0\% over YOLO11-N and by 1.5\% over YOLOv12-N. The code and models of our YOLOv13 model are available at: https://github.com/iMoonLab/yolov13.
- Abstract(参考訳): YOLOシリーズモデルは、精度と計算効率が優れているため、リアルタイムオブジェクト検出において最高である。
しかし、YOLO11とそれ以前のバージョンの畳み込みアーキテクチャと、YOLOv12で導入された領域ベースの自己認識機構は、局所的な情報集約とペアワイズ相関モデリングに限られており、複雑なシナリオにおける検出性能を制限するグローバルなマルチツーマルチ高次相関を捕捉する能力に欠ける。
本稿では,高精度で軽量な物体検出器YOLOv13を提案する。
以上の課題に対処するため,ハイパーグラフを用いた適応的高次相関を適応的に活用し,ハイパーグラフ計算に基づく相互相関モデルに制限された従来手法の制限を克服し,効率的なグローバルなクロスロケーションとクロススケール機能融合と拡張を実現するハイパーグラフベースの適応的相関強化(HyperACE)機構を提案する。
次に,HyperACEに基づくFullPAD(Full-Pipeline Aggregation-and-Distribution)パラダイムを提案する。
最後に,バニラ大カーネルの畳み込みに代えて,奥行き分離可能な畳み込みを活用し,性能を犠牲にすることなくパラメータや計算複雑性を大幅に低減するブロックを設計することを提案する。
広範に使われているMS COCOベンチマークについて広範な実験を行い,本手法がパラメータやFLOPを少なくして最先端性能を実現することを示す実験結果を得た。
具体的には, YOLOv13-Nは, YOLO11-Nより3.0 %, YOLOv12-Nより1.5 %改善した。
YOLOv13モデルのコードとモデルについては、https://github.com/iMoonLab/yolov13.comで公開しています。
関連論文リスト
- YOLOv11-RGBT: Towards a Comprehensive Single-Stage Multispectral Object Detection Framework [23.587408383983163]
YOLOv11-RGBTは,新しい総合的マルチモーダルオブジェクト検出フレームワークである。
我々は6つのマルチスペクトル融合モードを設計し、YOLOv3からYOLOv12、RT-DETRのモデルに適用した。
実験により,LLVIPやFLIRのような3つの主要なオープンソースマルチスペクトルオブジェクト検出データセットに優れたフレームワークが得られた。
論文 参考訳(メタデータ) (2025-06-17T16:37:00Z) - Hyper-YOLO: When Visual Object Detection Meets Hypergraph Computation [74.65906322148997]
本稿では,画像特徴量間の複雑な高次相関を捉えるためにハイパーグラフ計算を統合する新しいオブジェクト検出手法を提案する。
Hyper-YOLOは、高度なYOLOv8-NとYOLOv9Tを12%のtextval$と9%のAPMoonLabの改善で大幅に上回っている。
論文 参考訳(メタデータ) (2024-08-09T01:21:15Z) - LeYOLO, New Embedded Architecture for Object Detection [0.0]
MSCOCOをベース検証セットとして用いたオブジェクト検出モデルに2つの重要な貢献点を紹介する。
まず,SSDLiteに匹敵する推論速度を維持する汎用検出フレームワークであるLeNeckを提案する。
第2に, YOLOアーキテクチャにおける計算効率の向上を目的とした, 効率的なオブジェクト検出モデルであるLeYOLOを提案する。
論文 参考訳(メタデータ) (2024-06-20T12:08:24Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-TLA: An Efficient and Lightweight Small Object Detection Model based on YOLOv5 [19.388112026410045]
YOLO-TLAは、YOLOv5上に構築された高度な物体検出モデルである。
まず、ネックネットワークピラミッドアーキテクチャにおいて、小さなオブジェクトに対する検出層を新たに導入する。
このモジュールはスライディングウィンドウの特徴抽出を使い、計算要求とパラメータ数の両方を効果的に最小化する。
論文 参考訳(メタデータ) (2024-02-22T05:55:17Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。