論文の概要: You Better Look Twice: a new perspective for designing accurate
detectors with reduced computations
- arxiv url: http://arxiv.org/abs/2107.10050v1
- Date: Wed, 21 Jul 2021 12:39:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-22 18:01:48.225200
- Title: You Better Look Twice: a new perspective for designing accurate
detectors with reduced computations
- Title(参考訳): You Better Look Twice: 少ない計算で正確な検出器を設計するための新しい視点
- Authors: Alexandra Dana, Maor Shutman, Yotam Perlitz, Ran Vitek, Tomer Peleg,
Roy Jevnisek
- Abstract要約: BLT-netは、新しい低計算の2段階オブジェクト検出アーキテクチャである。
非常にエレガントな第1ステージを使用して、オブジェクトをバックグラウンドから分離することで、計算を削減します。
結果のイメージ提案は、高度に正確なモデルによって第2段階で処理される。
- 参考スコア(独自算出の注目度): 56.34005280792013
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: General object detectors use powerful backbones that uniformly extract
features from images for enabling detection of a vast amount of object types.
However, utilization of such backbones in object detection applications
developed for specific object types can unnecessarily over-process an extensive
amount of background. In addition, they are agnostic to object scales, thus
redundantly process all image regions at the same resolution. In this work we
introduce BLT-net, a new low-computation two-stage object detection
architecture designed to process images with a significant amount of background
and objects of variate scales. BLT-net reduces computations by separating
objects from background using a very lite first-stage. BLT-net then efficiently
merges obtained proposals to further decrease processed background and then
dynamically reduces their resolution to minimize computations. Resulting image
proposals are then processed in the second-stage by a highly accurate model. We
demonstrate our architecture on the pedestrian detection problem, where objects
are of different sizes, images are of high resolution and object detection is
required to run in real-time. We show that our design reduces computations by a
factor of x4-x7 on the Citypersons and Caltech datasets with respect to leading
pedestrian detectors, on account of a small accuracy degradation. This method
can be applied on other object detection applications in scenes with a
considerable amount of background and variate object sizes to reduce
computations.
- Abstract(参考訳): 一般的な物体検出器は強力なバックボーンを使用して画像から特徴を均一に抽出し、膨大な種類の物体を検出する。
しかし、特定のオブジェクトタイプ向けに開発されたオブジェクト検出アプリケーションにおけるそのようなバックボーンの利用は、必要以上に大量のバックグラウンドを過剰に処理することができる。
さらに、オブジェクトスケールに依存しないため、同じ解像度ですべての画像領域を冗長に処理する。
本研究では,BLT-netという低計算の2段階オブジェクト検出アーキテクチャを導入し,画像の背景とオブジェクトを可変スケールで処理する。
blt-netは、非常にライトな第一段階を使ってオブジェクトを背景から分離することで、計算を減らす。
BLT-netは、処理されたバックグラウンドをさらに減らし、その解像度を動的に減らして計算を最小化する提案を効率よくマージする。
結果のイメージ提案は、高度に正確なモデルによって第2段階で処理される。
我々は,物体が異なるサイズで,画像が高解像度で,オブジェクト検出がリアルタイムに必要となる歩行者検出問題のアーキテクチャを実証する。
本設計では,少ない精度で精度の劣化を考慮し,Citypersons と Caltech のデータセットの x4-x7 で計算を削減できることが示されている。
この手法は,背景や物体の大きさの異なるシーンにおける他の物体検出アプリケーションにも適用でき,計算量を削減することができる。
関連論文リスト
- ESOD: Efficient Small Object Detection on High-Resolution Images [36.80623357577051]
小さなオブジェクトは通常、わずかに分散され、局所的にクラスタ化される。
画像の非対象背景領域において、大量の特徴抽出計算を無駄にする。
本稿では,検出器のバックボーンを再利用して,特徴レベルのオブジェクト探索とパッチスライシングを行う方法を提案する。
論文 参考訳(メタデータ) (2024-07-23T12:21:23Z) - YOLC: You Only Look Clusters for Tiny Object Detection in Aerial Images [33.80392696735718]
YOLC(You Only Look Clusters)は、アンカーフリーなオブジェクト検出器であるCenterNet上に構築された、効率的で効果的なフレームワークである。
大規模画像や非一様オブジェクトの分布がもたらす課題を克服するため,正確な検出のためにクラスタ領域のズームインを適応的に検索するローカルスケールモジュール(LSM)を導入する。
Visdrone 2019 と UAVDT を含む2つの航空画像データセットに対する広範な実験を行い、提案手法の有効性と優位性を実証した。
論文 参考訳(メタデータ) (2024-04-09T10:03:44Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - Rethinking the backbone architecture for tiny object detection [0.0]
既存の小さなオブジェクト検出方法は、標準的なディープニューラルネットワークをバックボーンアーキテクチャとして使用しています。
このようなバックボーンは、大きなオブジェクトの分類のために設計されたため、小さなオブジェクトを検出するには不適切であり、小さなターゲットを特定するための空間分解能を持っていない、と我々は主張する。
我々は、全体的な計算負荷を伴わずに、高解像度の機能を処理するためにより多くのリソースを割り当てる「ボトムヘビー」バージョンのバックボーンを設計する。
論文 参考訳(メタデータ) (2023-03-20T16:50:29Z) - A Coarse to Fine Framework for Object Detection in High Resolution Image [8.316322664637537]
オブジェクト検出の現在のアプローチでは、高解像度画像における小さなオブジェクトや大規模な分散問題を検出することはめったにない。
本稿では,オブジェクト検出の精度を,特に小さなオブジェクトや大規模分散シーンに対して向上させる,シンプルで効率的なアプローチを提案する。
提案手法は,高分解能画像における物体の空間と情報を有効利用することにより,より効率的に検出できる。
論文 参考訳(メタデータ) (2023-03-02T13:04:33Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - Underwater object detection using Invert Multi-Class Adaboost with deep
learning [37.14538666012363]
小型物体検出のための新しいニューラルネットワークアーキテクチャであるSample-WeIghted hyPEr Network(SWIPENet)を提案する。
提案するSWIPENet+IMAフレームワークは,複数の最先端オブジェクト検出手法に対して,検出精度の向上を実現する。
論文 参考訳(メタデータ) (2020-05-23T15:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。