論文の概要: YOLO-NAS-Bench: A Surrogate Benchmark with Self-Evolving Predictors for YOLO Architecture Search
- arxiv url: http://arxiv.org/abs/2603.09405v1
- Date: Tue, 10 Mar 2026 09:19:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.199075
- Title: YOLO-NAS-Bench: A Surrogate Benchmark with Self-Evolving Predictors for YOLO Architecture Search
- Title(参考訳): YOLO-NAS-Bench: YOLOアーキテクチャ検索のための自己進化型予測器を備えたサロゲートベンチマーク
- Authors: Zhe Li, Xiaoyu Ding, Jiaxin Zheng, Yongtao Wang,
- Abstract要約: YOLO-NAS-Benchは、YOLO型検出器に合わせた初のサロゲートベンチマークである。
YOLO-NAS-Benchは、チャネル幅、ブロック深さ、およびバックボーンとネックの両方にまたがる演算子タイプにまたがる検索空間を定義する。
ランダム、階層化、ラテンハイパーキューブ戦略を通じて1,000のアーキテクチャをサンプリングし、COCO-miniでトレーニングし、LightGBMサロゲート予測器を構築する。
- 参考スコア(独自算出の注目度): 13.129549345298612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Architecture Search (NAS) for object detection is severely bottlenecked by high evaluation cost, as fully training each candidate YOLO architecture on COCO demands days of GPU time. Meanwhile, existing NAS benchmarks largely target image classification, leaving the detection community without a comparable benchmark for NAS evaluation. To address this gap, we introduce YOLO-NAS-Bench, the first surrogate benchmark tailored to YOLO-style detectors. YOLO-NAS-Bench defines a search space spanning channel width, block depth, and operator type across both backbone and neck, covering the core modules of YOLOv8 through YOLO12. We sample 1,000 architectures via random, stratified, and Latin Hypercube strategies, train them on COCO-mini, and build a LightGBM surrogate predictor. To sharpen the predictor in the high-performance regime most relevant to NAS, we propose a Self-Evolving Mechanism that progressively aligns the predictor's training distribution with the high-performance frontier, by using the predictor itself to discover and evaluate informative architectures in each iteration. This method grows the pool to 1,500 architectures and raises the ensemble predictor's R2 from 0.770 to 0.815 and Sparse Kendall Tau from 0.694 to 0.752, demonstrating strong predictive accuracy and ranking consistency. Using the final predictor as the fitness function for evolutionary search, we discover architectures that surpass all official YOLOv8-YOLO12 baselines at comparable latency on COCO-mini, confirming the predictor's discriminative power for top-performing detection architectures.
- Abstract(参考訳): オブジェクト検出のためのニューラルアーキテクチャサーチ(NAS)は、COCO上で各候補のYOLOアーキテクチャを完全にトレーニングするため、高い評価コストで大幅にボトルネックとなる。
一方、既存のNASベンチマークは主に画像分類をターゲットにしており、検出コミュニティはNAS評価に匹敵するベンチマークを欠いている。
このギャップに対処するために, YOLO-NAS-Benchを導入した。
YOLO-NAS-Bench は YOLOv8 のコアモジュールを YOLO12 でカバーし、チャネル幅、ブロック深さ、および演算子タイプをバックボーンとネックの両方に分散した検索空間を定義する。
ランダム、階層化、ラテンハイパーキューブ戦略を通じて1,000のアーキテクチャをサンプリングし、COCO-miniでトレーニングし、LightGBMサロゲート予測器を構築する。
本研究では,NASに最も関係のある高性能システムにおいて,予測器自体を用いて予測器のトレーニング分布と高性能フロンティアを漸進的に整合させる自己進化機構を提案する。
この方法では、プールを1,500のアーキテクチャに拡大し、アンサンブル予測器のR2を0.770から0.815に、スパース・ケンダル・タウを0.694から0.752に引き上げ、予測精度とランキング整合性を示す。
進化探索のための適合度関数として最終予測器を用いると、COCO-mini上の公式のYOLOv8-YOLO12ベースラインをほぼ同等のレイテンシで超越したアーキテクチャを発見し、予測器の最高性能検出アーキテクチャに対する差別的パワーを確認する。
関連論文リスト
- Evolutionary Neural Architecture Search with Dual Contrastive Learning [17.587401259123855]
本稿では,2段階のコントラスト学習を用いたニューラル予測学習手法であるDCL-ENASについて紹介する。
実世界のECG不整脈分類タスクでは、DCL-ENASは手作業で設計した非NASモデルよりも約2.5ポイントの性能を向上させる。
論文 参考訳(メタデータ) (2025-12-23T07:15:38Z) - YOLOv13: Real-Time Object Detection with Hypergraph-Enhanced Adaptive Visual Perception [58.06752127687312]
高精度で軽量な物体検出器YOLOv13を提案する。
ハイパーグラフに基づく適応相関強化(HyperACE)機構を提案する。
また,FullPAD(Full-Pipeline Aggregation-and-Distribution)パラダイムを提案する。
論文 参考訳(メタデータ) (2025-06-21T15:15:03Z) - YOLOv5, YOLOv8 and YOLOv10: The Go-To Detectors for Real-time Vision [0.6662800021628277]
本稿では、YOLOv5, YOLOv8, YOLOv10に着目し、YOLO(You Only Look Once)オブジェクト検出アルゴリズムの進化に焦点を当てた。
これらのバージョンにまたがるエッジデプロイメントのアーキテクチャの進歩、パフォーマンスの改善、適合性を分析します。
論文 参考訳(メタデータ) (2024-07-03T10:40:20Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLOBench: Benchmarking Efficient Object Detectors on Embedded Systems [0.0873811641236639]
4つの異なるデータセットと4つの異なる組込みハードウェアプラットフォーム上で、550以上のYOLOベースのオブジェクト検出モデルからなるベンチマークであるYOLOBenchを提案する。
我々は,これらの検出器と固定訓練環境との公正かつ制御された比較を行うことにより,様々なモデルスケールのYOLOベースの1段検出器の精度と遅延数を収集する。
我々は、YOLOBenchのニューラルネットワーク探索で使用されるトレーニング不要な精度推定器を評価し、最先端のゼロコスト精度推定器はMACカウントのような単純なベースラインよりも優れており、その一部は効果的に使用できることを示した。
論文 参考訳(メタデータ) (2023-07-26T01:51:10Z) - PRE-NAS: Predictor-assisted Evolutionary Neural Architecture Search [34.06028035262884]
我々は、新しい進化型NAS戦略、Predictor-assisted E-NAS(PRE-NAS)を提案する。
Pre-NASは新しい進化的探索戦略を活用し、世代ごとに高忠実度重みの継承を統合する。
NAS-Bench-201とDARTSの探索実験により、Pre-NASは最先端のNAS法より優れていることが示された。
論文 参考訳(メタデータ) (2022-04-27T06:40:39Z) - BossNAS: Exploring Hybrid CNN-transformers with Block-wisely
Self-supervised Neural Architecture Search [100.28980854978768]
BossNAS(Block-wisely Self-supervised Neural Architecture Search)の紹介
探索空間をブロックに分類し、アンサンブルブートストラッピングと呼ばれる新しい自己教師型トレーニングスキームを用いて各ブロックを個別に訓練する。
また,検索可能なダウンサンプリング位置を持つファブリック型cnnトランスフォーマ検索空間であるhytra search spaceを提案する。
論文 参考訳(メタデータ) (2021-03-23T10:05:58Z) - Weak NAS Predictors Are All You Need [91.11570424233709]
最近の予測器ベースのnasアプローチは、アーキテクチャとパフォーマンスのペアをサンプリングし、プロキシの精度を予測するという2つの重要なステップで問題を解決しようとする。
私たちはこのパラダイムを、アーキテクチャ空間全体をカバーする複雑な予測子から、ハイパフォーマンスなサブスペースへと徐々に進む弱い予測子へとシフトさせます。
NAS-Bench-101 および NAS-Bench-201 で最高の性能のアーキテクチャを見つけるためのサンプルを少なくし、NASNet 検索空間における最先端の ImageNet パフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-21T01:58:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。