論文の概要: USB: Universal-Scale Object Detection Benchmark
- arxiv url: http://arxiv.org/abs/2103.14027v1
- Date: Thu, 25 Mar 2021 17:59:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:33:56.256431
- Title: USB: Universal-Scale Object Detection Benchmark
- Title(参考訳): USB: ユニバーサルスケールオブジェクト検出ベンチマーク
- Authors: Yosuke Shinya
- Abstract要約: ユニバーサルスケールオブジェクト検出ベンチマーク(USB)を導入する。
USBは、最近提案されたOpenデータセットとManga109-sデータセットにCOCOを組み込むことで、オブジェクトスケールとイメージドメインにバリエーションがあります。
提案したベンチマークの手法を解析することにより,UniverseNetsと呼ばれる高速かつ高精度な物体検出器を設計した。
- 参考スコア(独自算出の注目度): 0.76146285961466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Benchmarks, such as COCO, play a crucial role in object detection. However,
existing benchmarks are insufficient in scale variation, and their protocols
are inadequate for fair comparison. In this paper, we introduce the
Universal-Scale object detection Benchmark (USB). USB has variations in object
scales and image domains by incorporating COCO with the recently proposed Waymo
Open Dataset and Manga109-s dataset. To enable fair comparison, we propose USB
protocols by defining multiple thresholds for training epochs and evaluation
image resolutions. By analyzing methods on the proposed benchmark, we designed
fast and accurate object detectors called UniverseNets, which surpassed all
baselines on USB and achieved state-of-the-art results on existing benchmarks.
Specifically, UniverseNets achieved 54.1% AP on COCO test-dev with 20 epochs
training, the top result among single-stage detectors on the Waymo Open Dataset
Challenge 2020 2D detection, and the first place in the NightOwls Detection
Challenge 2020 all objects track. The code is available at
https://github.com/shinya7y/UniverseNet .
- Abstract(参考訳): COCOなどのベンチマークは、オブジェクト検出において重要な役割を果たす。
しかし、既存のベンチマークはスケールのばらつきに乏しく、それらのプロトコルは公正な比較には不十分である。
本稿では,Universal-Scale Object Detection Benchmark (USB)を紹介する。
USBは、最近提案されたWaymo Open DatasetとManga109-sデータセットにCOCOを組み込むことによって、オブジェクトスケールとイメージドメインのバリエーションがある。
公平な比較を可能にするために,複数のしきい値を定義し,画像の解像度を評価することで,USBプロトコルを提案する。
提案するベンチマークの手法を解析することにより,USB上のすべてのベースラインを超越し,既存のベンチマークの最先端結果を達成した,高速かつ正確なオブジェクト検出器であるUniverseNetsを設計した。
具体的には、UniverseNetsはCOCOテストデブで54.1%のAPを達成し、20のエポックトレーニング、Waymo Open Dataset Challenge 2020 2D検出における単一ステージ検出器の最高結果、NightOwls Detection Challenge 2020の初回で全てのオブジェクトが追跡された。
コードはhttps://github.com/shinya7y/UniverseNetで入手できる。
関連論文リスト
- COCO-O: A Benchmark for Object Detectors under Natural Distribution
Shifts [27.406639379618003]
COCO-Oは、COCOに基づく6種類の自然分布シフトに基づくテストデータセットである。
COCO-Oはトレーニングデータと大きな分散ギャップを持ち、より高速なR-CNN検出器で55.7%の性能低下をもたらす。
本稿では,検出器のアーキテクチャ設計,拡張および事前学習技術の最近のブレークスルーに対するロバスト性効果について検討する。
論文 参考訳(メタデータ) (2023-07-24T12:22:19Z) - Cascade-DETR: Delving into High-Quality Universal Object Detection [99.62131881419143]
高品質な普遍物体検出のためのカスケードDETRを提案する。
本稿では,オブジェクト中心情報を検出デコーダに明示的に統合するカスケードアテンション層を提案する。
最後に、多様なドメインから10のデータセットを含む汎用オブジェクト検出ベンチマークUDB10を紹介する。
論文 参考訳(メタデータ) (2023-07-20T17:11:20Z) - Tech Report: One-stage Lightweight Object Detectors [0.38073142980733]
この研究は、mAPと遅延の点でよく機能するワンステージ軽量検出器を設計するためのものである。
GPUとCPUを対象とするベースラインモデルでは、ベースラインモデルのバックボーンネットワークにおけるメイン操作の代わりに、さまざまな操作が適用される。
論文 参考訳(メタデータ) (2022-10-31T09:02:37Z) - Pedestrian Detection: Domain Generalization, CNNs, Transformers and
Beyond [82.37430109152383]
その結果、現在の歩行者検知器は、クロスデータセット評価において、たとえ小さな領域シフトであっても処理が不十分であることがわかった。
限定的な一般化は、その方法と現在のデータ源の2つの主要な要因に帰着する。
本稿では、一般化を改善する進歩的な微調整戦略を提案する。
論文 参考訳(メタデータ) (2022-01-10T06:00:26Z) - Are we ready for beyond-application high-volume data? The Reeds robot
perception benchmark dataset [3.781421673607643]
本稿ではロボット認識アルゴリズムの研究のためにReedsと呼ばれるデータセットを提案する。
このデータセットは、アプリケーション固有のソリューションをテストする環境を提供するのではなく、アルゴリズムに要求されるベンチマーク機会を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-16T23:21:42Z) - Oriented R-CNN for Object Detection [61.78746189807462]
本研究では、オブジェクト指向R-CNNと呼ばれる、効果的でシンプルなオブジェクト指向オブジェクト検出フレームワークを提案する。
第1段階では,高品質な指向型提案をほぼ無償で直接生成する指向型領域提案ネットワーク(指向RPN)を提案する。
第2段階は、R-CNNヘッダーで、興味のある領域(オブジェクト指向のRoI)を精製し、認識する。
論文 参考訳(メタデータ) (2021-08-12T12:47:43Z) - VarifocalNet: An IoU-aware Dense Object Detector [11.580759212782812]
我々は、物体の存在感と位置決め精度の合同表現として、IACS(Iou-Aware Classification Score)を学習する。
IACSに基づいて、高密度物体検出器により、より正確な候補検出のランク付けが可能であることを示す。
FCOS+ATSSアーキテクチャに基づくIoU対応の高密度物体検出器を構築し,VarifocalNetあるいはVFNetと呼ぶ。
論文 参考訳(メタデータ) (2020-08-31T05:12:21Z) - Simultaneous Detection and Tracking with Motion Modelling for Multiple
Object Tracking [94.24393546459424]
本稿では,複数の物体の運動パラメータを推定し,共同検出と関連付けを行うディープ・モーション・モデリング・ネットワーク(DMM-Net)を提案する。
DMM-Netは、人気の高いUA-DETRACチャレンジで12.80 @120+ fpsのPR-MOTAスコアを達成した。
また,車両追跡のための大規模な公開データセットOmni-MOTを合成し,精密な接地トルースアノテーションを提供する。
論文 参考訳(メタデータ) (2020-08-20T08:05:33Z) - NWPU-Crowd: A Large-Scale Benchmark for Crowd Counting and Localization [101.13851473792334]
我々は,5,109枚の画像からなる大規模集束群集NWPU-Crowdを構築し,合計2,133,375個の点と箱を付加したアノテートヘッドを構築した。
他の実世界のデータセットと比較すると、様々な照明シーンを含み、最大密度範囲 (020,033) を持つ。
本稿では,データ特性について述べるとともに,主要なSOTA(State-of-the-art)手法の性能を評価し,新たなデータに生じる問題を分析する。
論文 参考訳(メタデータ) (2020-01-10T09:26:04Z) - R-FCN: Object Detection via Region-based Fully Convolutional Networks [87.62557357527861]
我々は,高精度かつ効率的な物体検出のための領域ベースの完全畳み込みネットワークを提案する。
我々の結果は、Faster R-CNNよりも2.5-20倍高速で、1画像あたり170msのテストタイムで達成される。
論文 参考訳(メタデータ) (2016-05-20T15:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。