論文の概要: Slicing Aided Hyper Inference and Fine-tuning for Small Object Detection
- arxiv url: http://arxiv.org/abs/2202.06934v2
- Date: Tue, 15 Feb 2022 08:18:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 11:38:25.164995
- Title: Slicing Aided Hyper Inference and Fine-tuning for Small Object Detection
- Title(参考訳): 小型物体検出のためのスライシング支援ハイパー推論と微調整
- Authors: Fatih Cagatay Akyon, Sinan Onur Altinuc, Alptekin Temizel
- Abstract要約: Slicing Aided Hyper Inference (SAHI) は、小型物体検出のための汎用スライシング支援推論と微調整パイプラインを提供する。
提案手法は Detectron2, MMDetection, YOLOv5 モデルと統合されている。
- 参考スコア(独自算出の注目度): 2.578242050187029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detection of small objects and objects far away in the scene is a major
challenge in surveillance applications. Such objects are represented by small
number of pixels in the image and lack sufficient details, making them
difficult to detect using conventional detectors. In this work, an open-source
framework called Slicing Aided Hyper Inference (SAHI) is proposed that provides
a generic slicing aided inference and fine-tuning pipeline for small object
detection. The proposed technique is generic in the sense that it can be
applied on top of any available object detector without any fine-tuning.
Experimental evaluations, using object detection baselines on the Visdrone and
xView aerial object detection datasets show that the proposed inference method
can increase object detection AP by 6.8%, 5.1% and 5.3% for FCOS, VFNet and
TOOD detectors, respectively. Moreover, the detection accuracy can be further
increased with a slicing aided fine-tuning, resulting in a cumulative increase
of 12.7%, 13.4% and 14.5% AP in the same order. Proposed technique has been
integrated with Detectron2, MMDetection and YOLOv5 models and it is publicly
available at https://github.com/obss/sahi.git .
- Abstract(参考訳): 現場から遠く離れた小さな物体や物体を検知することは、監視アプリケーションにおいて大きな課題である。
このような物体は、画像中の少数のピクセルで表現され、十分な詳細が欠如しているため、従来の検出器を用いた検出が困難である。
本稿では,スライス支援ハイパー推論(slicing aided hyper inference, sahi)と呼ばれるオープンソースのフレームワークを提案する。
提案手法は,任意の物体検出器上で,微調整をすることなく適用できるという意味では一般的である。
Visdrone と xView の空中物体検出データセットのオブジェクト検出ベースラインを用いた実験的評価により,提案手法は,FCOS , VFNet および TOOD 検出器でそれぞれ6.8%,5.1%,5.3% のオブジェクト検出APを増大させることができることが示された。
さらに、スライシング支援による微調整により検出精度がさらに向上し、合計12.7%、13.4%、14.5%APが同じ順序で増加する。
Detectron2、MMDetection、YOLOv5モデルに統合され、https://github.com/obss/sahi.gitで公開されている。
関連論文リスト
- Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Fewer is More: Efficient Object Detection in Large Aerial Images [59.683235514193505]
本稿では,検出者がより少ないパッチに注目するのに対して,より効率的な推論とより正確な結果を得るのに役立つObjectness Activation Network(OAN)を提案する。
OANを用いて、5つの検出器は3つの大規模な空中画像データセットで30.0%以上のスピードアップを取得する。
我々はOANをドライブシーン物体検出と4Kビデオ物体検出に拡張し,検出速度をそれぞれ112.1%,75.0%向上させた。
論文 参考訳(メタデータ) (2022-12-26T12:49:47Z) - Focus-and-Detect: A Small Object Detection Framework for Aerial Images [1.911678487931003]
我々はFocus-and-Detectと呼ばれる2段階のオブジェクト検出フレームワークを提案する。
第1段階は、焦点領域を構成するオブジェクトのクラスタを生成する。
第2段階は対象検出器ネットワークであり、焦点領域内の物体を予測する。
提案した2段階のフレームワークは,VisDrone検証データセットのAPスコアが42.06であることを示す。
論文 参考訳(メタデータ) (2022-03-24T10:43:56Z) - Active Terahertz Imaging Dataset for Concealed Object Detection [16.26153671724079]
本稿では,Terahertzイメージング解像度5mm×5mmにおける多物体検出アルゴリズムの評価のための公開データセットを提供する。
代表的な検出器は, YOLOv3, YOLOv4, FRCN-OHEM, RetinaNetである。
実験の結果、RetinaNetは最も高いmAPを達成することが示された。
論文 参考訳(メタデータ) (2021-05-08T11:21:38Z) - Robust and Accurate Object Detection via Adversarial Learning [111.36192453882195]
この研究は、逆の例を探索することで、物体検出器の微調整段階を補強する。
提案手法は,オブジェクト検出ベンチマークにおいて,最先端のEfficientDetsの性能を+1.1mAP向上させる。
論文 参考訳(メタデータ) (2021-03-23T19:45:26Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - AmphibianDetector: adaptive computation for moving objects detection [0.913755431537592]
本稿では,偽陽性検出の回数を減らすためのオブジェクト検出手法を提案する。
提案手法は、すでにオブジェクト検出タスクのために訓練されているCNNの修正である。
提案手法の有効性をオープンデータセット"CDNet2014 pedestrian"で実証した。
論文 参考訳(メタデータ) (2020-11-15T12:37:44Z) - Few-shot Object Detection with Self-adaptive Attention Network for
Remote Sensing Images [11.938537194408669]
本報告では, ごく一部の例で提供される新しい物体を検出するために設計された, 数発の物体検出器を提案する。
対象物検出設定に適合するため,本提案では,全画像ではなく対象物レベルの関係に焦点を合わせている。
本実験は, 撮影シーンにおける提案手法の有効性を実証するものである。
論文 参考訳(メタデータ) (2020-09-26T13:44:58Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - Detection in Crowded Scenes: One Proposal, Multiple Predictions [79.28850977968833]
混み合ったシーンにおける高過度なインスタンスを検出することを目的とした,提案手法によるオブジェクト検出手法を提案する。
このアプローチの鍵は、各提案が以前の提案ベースのフレームワークの1つではなく、関連したインスタンスのセットを予測できるようにすることです。
我々の検出器は、CrowdHumanデータセットの挑戦に対して4.9%のAPゲインを得ることができ、CityPersonsデータセットでは1.0%$textMR-2$の改善がある。
論文 参考訳(メタデータ) (2020-03-20T09:48:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。