論文の概要: OneNet: Towards End-to-End One-Stage Object Detection
- arxiv url: http://arxiv.org/abs/2012.05780v1
- Date: Thu, 10 Dec 2020 16:15:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:21:17.407796
- Title: OneNet: Towards End-to-End One-Stage Object Detection
- Title(参考訳): OneNet: エンドツーエンドのワンステージオブジェクト検出を目指す
- Authors: Peize Sun, Yi Jiang, Enze Xie, Zehuan Yuan, Changhu Wang, Ping Luo
- Abstract要約: 既存の1段階のオブジェクト検出器は、ラベルをロケーションコストのみに割り当てる。
分類コストがなければ、唯一の位置コストは推論における高い信頼度スコアの冗長なボックスにつながる。
エンドツーエンドのワンステージオブジェクトディテクタを設計するために、最小コスト割り当てを提案します。
onenetは512ピクセルの35.0 ap/80 fpsと37.7 ap/50 fpsを達成する。
- 参考スコア(独自算出の注目度): 39.445348555252785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: End-to-end one-stage object detection trailed thus far. This paper discovers
that the lack of classification cost between sample and ground-truth in label
assignment is the main obstacle for one-stage detectors to remove Non-maximum
Suppression(NMS) and reach end-to-end. Existing one-stage object detectors
assign labels by only location cost, e.g. box IoU or point distance. Without
classification cost, sole location cost leads to redundant boxes of high
confidence scores in inference, making NMS necessary post-processing. To design
an end-to-end one-stage object detector, we propose Minimum Cost Assignment.
The cost is the summation of classification cost and location cost between
sample and ground-truth. For each object ground-truth, only one sample of
minimum cost is assigned as the positive sample; others are all negative
samples. To evaluate the effectiveness of our method, we design an extremely
simple one-stage detector named OneNet. Our results show that when trained with
Minimum Cost Assignment, OneNet avoids producing duplicated boxes and achieves
to end-to-end detector. On COCO dataset, OneNet achieves 35.0 AP/80 FPS and
37.7 AP/50 FPS with image size of 512 pixels. We hope OneNet could serve as an
effective baseline for end-to-end one-stage object detection. The code is
available at: \url{https://github.com/PeizeSun/OneNet}.
- Abstract(参考訳): 終端から終端までの1段階の物体検出は、これまで続いた。
本稿では,ラベル割り当てにおける試料と地表面の分類コストの欠如が,非最大抑制(nms)を除去しエンドツーエンドに到達するための1段階検出器の主な障害であることを示す。
既存の1段階のオブジェクト検出器は、ラベルをロケーションコストのみに割り当てる。
ボックスIoUまたはポイント距離。
分類コストがなければ、唯一の位置コストは推論における高い信頼度スコアの冗長なボックスにつながるため、NMSは後処理を必要とする。
エンド・ツー・エンドのワンステージ物体検出器を設計するために,最小コスト割り当てを提案する。
コストは、サンプルと地表面の間の分類コストと位置コストの合計である。
各対象の接地真実に対して、最小コストの1つのサンプルのみが正のサンプルとして割り当てられ、他のサンプルはすべて負のサンプルである。
提案手法の有効性を評価するため,OneNetという超単純なワンステージ検出器を設計した。
以上の結果から,OneNetは最小コスト割当でトレーニングした場合,複製箱の生成を回避し,エンド・ツー・エンドの検出器を実現することができた。
COCOデータセットでは、OneNetは画像サイズ512ピクセルの35.0 AP/80 FPSと37.7 AP/50 FPSを達成した。
OneNetがエンドツーエンドのワンステージオブジェクト検出の効果的なベースラインになることを期待しています。
コードは以下の通り。 \url{https://github.com/PeizeSun/OneNet}。
関連論文リスト
- Label-Efficient Object Detection via Region Proposal Network
Pre-Training [58.50615557874024]
地域提案ネットワーク(RPN)に効果的な事前学習を提供するための簡単な事前学習タスクを提案する。
RPN事前学習のないマルチステージ検出器と比較して,本手法はダウンストリームタスク性能を継続的に改善することができる。
論文 参考訳(メタデータ) (2022-11-16T16:28:18Z) - RFLA: Gaussian Receptive Field based Label Assignment for Tiny Object
Detection [45.10513110142015]
現在のアンカーベースまたはアンカーフリーなラベル割り当てパラダイムは、多くのアウトリーな小さな基底真理サンプルを発生させる。
本稿では,小物体検出のためのガウス受容場に基づくラベルアサインメント(RFLA)戦略を提案する。
当社のアプローチは、AI-TODデータセットの4.0APポイントで最先端の競合より優れています。
論文 参考訳(メタデータ) (2022-08-18T09:35:56Z) - End-to-End Instance Edge Detection [29.650295133113183]
エッジ検出は長い間、コンピュータビジョンの分野で重要な問題であった。
従来の研究は、カテゴリ非依存またはカテゴリ対応エッジ検出を探索してきた。
本稿では,オブジェクトインスタンスのコンテキストにおけるエッジ検出について検討する。
論文 参考訳(メタデータ) (2022-04-06T15:32:21Z) - Anchor-free Oriented Proposal Generator for Object Detection [59.54125119453818]
オブジェクト指向物体検出はリモートセンシング画像解釈において実用的で困難な課題である。
今日では、指向性検出器は主に水平方向の箱を中間体として使用し、それらから指向性のある箱を導出している。
本稿では,ネットワークアーキテクチャから水平ボックス関連操作を放棄する,AOPG(Anchor-free Oriented Proposal Generator)を提案する。
論文 参考訳(メタデータ) (2021-10-05T10:45:51Z) - Object Detection Made Simpler by Eliminating Heuristic NMS [70.93004137521946]
単純なNMSのないエンドツーエンドのオブジェクト検出フレームワークを示す。
検出精度は元の1段検出器と比べて同等か、さらに向上した。
論文 参考訳(メタデータ) (2021-01-28T02:38:29Z) - Sparse R-CNN: End-to-End Object Detection with Learnable Proposals [77.9701193170127]
Sparse R-CNNは、画像中の物体検出のための純粋にスパースな方法である。
最終的な予測は、最大でない処理後抑制なしで直接出力される。
われわれの研究が、物体検知器に先立って密集した慣例を再考することを願っている。
論文 参考訳(メタデータ) (2020-11-25T00:01:28Z) - Reducing Label Noise in Anchor-Free Object Detection [12.397047191315966]
現在のアンカーフリー物体検出器は、事前に定義された中央領域内に空間的に落下する全ての特徴を正としてラベル付けしている。
本研究では,アンカーフリー検出器のラベルノイズ低減を目的とした新しいラベリング手法を提案する。
我々は、トレーニング中にこのラベリング戦略と、推論中に同様の予測プール法を利用するために、新しいワンステージアンカーフリー物体検出器 PPDet を開発した。
論文 参考訳(メタデータ) (2020-08-03T20:02:46Z) - FCOS: A simple and strong anchor-free object detector [111.87691210818194]
物体検出を画素ごとの予測方式で解くために, 完全畳み込み型一段物検出器 (FCOS) を提案する。
RetinaNet、SSD、YOLOv3、Faster R-CNNといった最先端のオブジェクト検出器のほとんどは、事前に定義されたアンカーボックスに依存している。
対照的に、提案した検出器FCOSはアンカーボックスフリーであり、提案はフリーである。
論文 参考訳(メタデータ) (2020-06-14T01:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。