論文の概要: SaccadeNet: A Fast and Accurate Object Detector
- arxiv url: http://arxiv.org/abs/2003.12125v1
- Date: Thu, 26 Mar 2020 19:47:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 21:58:03.149662
- Title: SaccadeNet: A Fast and Accurate Object Detector
- Title(参考訳): SaccadeNet: 高速で正確なオブジェクト検出器
- Authors: Shiyi Lan, Zhou Ren, Yi Wu, Larry S. Davis, Gang Hua
- Abstract要約: 我々はtextitSaccadeNet と呼ばれる高速かつ高精度なオブジェクト検出器を提案する。
セナム、コラム、atm、アガットの4つの主要なモジュールが含まれており、異なる情報的オブジェクトキーポイントへの参加を可能にする。
SaccadeNetは、25FPS以上の高速動作が可能なリアルタイムオブジェクト検出装置の中で、最高の検出性能を実現しています。
- 参考スコア(独自算出の注目度): 76.36741299193568
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection is an essential step towards holistic scene understanding.
Most existing object detection algorithms attend to certain object areas once
and then predict the object locations. However, neuroscientists have revealed
that humans do not look at the scene in fixed steadiness. Instead, human eyes
move around, locating informative parts to understand the object location. This
active perceiving movement process is called \textit{saccade}.
%In this paper, Inspired by such mechanism, we propose a fast and accurate
object detector called \textit{SaccadeNet}. It contains four main modules, the
\cenam, the \coram, the \atm, and the \aggatt, which allows it to attend to
different informative object keypoints, and predict object locations from
coarse to fine. The \coram~is used only during training to extract more
informative corner features which brings free-lunch performance boost. On the
MS COCO dataset, we achieve the performance of 40.4\% mAP at 28 FPS and 30.5\%
mAP at 118 FPS. Among all the real-time object detectors, %that can run faster
than 25 FPS, our SaccadeNet achieves the best detection performance, which
demonstrates the effectiveness of the proposed detection mechanism.
- Abstract(参考訳): オブジェクト検出は、総合的なシーン理解への重要なステップである。
既存のオブジェクト検出アルゴリズムは、特定のオブジェクト領域に一度参加し、オブジェクトの位置を予測する。
しかし、神経科学者は、人間が一定の安定状態にある場面を見ていないことを明らかにした。
代わりに人間の目は動き回り、対象の位置を理解するために情報的な部分を見つける。
このアクティブな知覚運動過程は \textit{saccade} と呼ばれる。
本稿では,このような機構に触発されて,高速かつ高精度な物体検出器である \textit{saccadenet} を提案する。
このモジュールには4つの主要なモジュールが含まれている: \cenam、 \coram、 \atm、および \aggatt は、異なる情報的オブジェクトキーポイントに出席でき、粗いものから細かいものまでオブジェクトの位置を予測できる。
\coram~はトレーニング中にのみ使用され、フリーランチのパフォーマンス向上をもたらす、より有益なコーナー機能を抽出する。
MS COCOデータセットでは,28 FPSで40.4\% mAP,118 FPSで30.5\% mAPの性能が得られた。
すべてのリアルタイムオブジェクト検出器のうち、25fpsよりも高速に動作可能な%のうち、saccadenetは最良の検出性能を達成し、提案する検出機構の有効性を実証する。
関連論文リスト
- Leveraging Object Priors for Point Tracking [25.030407197192]
ポイントトラッキングは、コンピュータビジョンにおける基本的な問題であり、多くのARやロボット工学への応用がある。
本稿では,対象の先行点に注意を向ける新たな対象性正規化手法を提案する。
提案手法は,3点追跡ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-09-09T16:48:42Z) - What You See Is What You Detect: Towards better Object Densification in
3D detection [2.3436632098950456]
広く使われているフル形状のコンプリートアプローチは、特に遠く離れた物や歩行者のような小さな物に対して、エラーのアップバウンドを高くする。
従来の手法が生成した予測ポイントの11.3%しか必要としない可視部分補完法を提案する。
密表現を復元するために,目に見える前景オブジェクトに関連付けられた点集合を拡大するメッシュデフォーメーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2023-10-27T01:46:37Z) - SalienDet: A Saliency-based Feature Enhancement Algorithm for Object
Detection for Autonomous Driving [160.57870373052577]
未知の物体を検出するために,サリエンデット法(SalienDet)を提案する。
我々のSaienDetは、オブジェクトの提案生成のための画像機能を強化するために、サリエンシに基づくアルゴリズムを利用している。
オープンワールド検出を実現するためのトレーニングサンプルセットにおいて、未知のオブジェクトをすべてのオブジェクトと区別するためのデータセットレザベリングアプローチを設計する。
論文 参考訳(メタデータ) (2023-05-11T16:19:44Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - Boundary-Guided Camouflaged Object Detection [20.937071658007255]
カモフラージュ物体検出のための新しい境界誘導ネットワーク(BGNet)を提案する。
提案手法は,CODの表現学習をガイドするために,重要かつ余分なオブジェクト関連エッジセマンティクスを探索する。
提案手法は, 正確な境界位置同定を行うために, カモフラージュした物体の検出を促進する。
論文 参考訳(メタデータ) (2022-07-02T10:48:35Z) - A Fast Location Algorithm for Very Sparse Point Clouds Based on Object
Detection [0.0]
特徴点の少ない状況下で,画像オブジェクト検出によって対象物を素早く検出するアルゴリズムを提案する。
スマートフォンを持って手動で設計したシーンで実験を行い,提案手法の高精度な位置決め速度と精度を示す。
論文 参考訳(メタデータ) (2021-10-21T05:17:48Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - Location-Sensitive Visual Recognition with Cross-IOU Loss [177.86369890708457]
本稿では,オブジェクト検出,インスタンスセグメンテーション,ポーズ推定のための位置感知ネットワーク (LSNet) という統合ソリューションを提案する。
ディープニューラルネットワークをバックボーンとして、LSNetは、ターゲットオブジェクトの形状を一緒に定義するアンカーポイントとランドマークのセットを予測します。
論文 参考訳(メタデータ) (2021-04-11T02:17:14Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。