論文の概要: F2DNet: Fast Focal Detection Network for Pedestrian Detection
- arxiv url: http://arxiv.org/abs/2203.02331v1
- Date: Fri, 4 Mar 2022 14:13:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 15:08:16.290931
- Title: F2DNet: Fast Focal Detection Network for Pedestrian Detection
- Title(参考訳): F2DNet:歩行者検出のための高速焦点検出ネットワーク
- Authors: Abdul Hannan Khan, Mohsin Munir, Ludger van Elst and Andreas Dengel
- Abstract要約: 2段階検出器は、歩行者検出と同様に物体検出の最先端技術である。
本稿では,現在の2段階検出器の冗長性を排除した新しい2段階検出アーキテクチャであるF2DNetを提案する。
当社のF2DNetは、1つのデータセットでトレーニングすると、それぞれシティパーソン、カルテックペデストリアン、ユーロシティパーソンのデータセットで8.7%、2.2%、および6.1%のMR-2を達成しています。
- 参考スコア(独自算出の注目度): 3.9126596709410673
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Two-stage detectors are state-of-the-art in object detection as well as
pedestrian detection. However, the current two-stage detectors are inefficient
as they do bounding box regression in multiple steps i.e. in region proposal
networks and bounding box heads. Also, the anchor-based region proposal
networks are computationally expensive to train. We propose F2DNet, a novel
two-stage detection architecture which eliminates redundancy of current
two-stage detectors by replacing the region proposal network with our focal
detection network and bounding box head with our fast suppression head. We
benchmark F2DNet on top pedestrian detection datasets, thoroughly compare it
against the existing state-of-the-art detectors and conduct cross dataset
evaluation to test the generalizability of our model to unseen data. Our F2DNet
achieves 8.7%, 2.2%, and 6.1% MR-2 on City Persons, Caltech Pedestrian, and
Euro City Person datasets respectively when trained on a single dataset and
reaches 20.4% and 26.2% MR-2 in heavy occlusion setting of Caltech Pedestrian
and City Persons datasets when using progressive fine-tunning. On top of that
F2DNet have significantly lesser inference time compared to the current
state-of-the-art. Code and trained models will be available at
https://github.com/AbdulHannanKhan/F2DNet.
- Abstract(参考訳): 2段階検出器は、歩行者検出と同様に物体検出の最先端である。
しかし、現在の2段階検出器は、領域提案ネットワークや境界ボックスヘッドなど、複数のステップで境界ボックス回帰を行うため、非効率である。
また、アンカーベースの領域提案ネットワークは、訓練に費用がかかる。
本研究では,領域提案ネットワークを焦点検出ネットワークに置き換え,バウンディングボックスヘッドを高速抑制ヘッドに置き換えることで,現行の2段階検出器の冗長性を解消する新しい2段階検出アーキテクチャであるf2dnetを提案する。
我々はF2DNetを歩行者検出データセット上でベンチマークし、既存の最先端検出器と徹底的に比較し、クロスデータセット評価を行い、我々のモデルの一般化可能性をテストする。
我々のF2DNetは、1つのデータセットでトレーニングされたときそれぞれ、市人、カルテック歩行者、ユーロシティパーソンのデータセットに対して8.7%、2.2%、6.1%のMR-2を達成する。
その上、F2DNetは現在の最先端に比べて推論時間が非常に少ない。
コードとトレーニングされたモデルはhttps://github.com/abdulhannankhan/f2dnetで入手できる。
関連論文リスト
- Simplifying Two-Stage Detectors for On-Device Inference in Remote Sensing [0.7305342793164903]
本研究では,2段階物体検出器のモデル簡易化手法を提案する。
本手法は,DOTAv1.5データセットの2.1%以内の精度で計算コストを61.2%まで削減する。
論文 参考訳(メタデータ) (2024-04-11T00:45:10Z) - SAFDNet: A Simple and Effective Network for Fully Sparse 3D Object Detection [22.120656021516695]
SAFDNetは、完全にスパースな3Dオブジェクト検出のための単純かつ高効率なアーキテクチャである。
オープン、nuScenes、Argoverse2データセットについて広範な実験を行った。
SAFDNetは以前の最高のハイブリッド検出器HEDNetを2.1倍高速で2.6%のmAPで上回った。
論文 参考訳(メタデータ) (2024-03-09T06:48:19Z) - AFDetV2: Rethinking the Necessity of the Second Stage for Object
Detection from Point Clouds [15.72821609622122]
我々は点雲からの3次元検出のための1段アンカーフリーネットワークを開発した。
我々は、バックボーンの自己校正畳み込みブロック、キーポイント補助監視、マルチタスクヘッドのIoU予測分岐を使用する。
私たちは2021年のリアルタイム3Dチャレンジで1位を獲得しました。
論文 参考訳(メタデータ) (2021-12-16T21:22:17Z) - Oriented R-CNN for Object Detection [61.78746189807462]
本研究では、オブジェクト指向R-CNNと呼ばれる、効果的でシンプルなオブジェクト指向オブジェクト検出フレームワークを提案する。
第1段階では,高品質な指向型提案をほぼ無償で直接生成する指向型領域提案ネットワーク(指向RPN)を提案する。
第2段階は、R-CNNヘッダーで、興味のある領域(オブジェクト指向のRoI)を精製し、認識する。
論文 参考訳(メタデータ) (2021-08-12T12:47:43Z) - 2nd Place Solution for Waymo Open Dataset Challenge - Real-time 2D
Object Detection [26.086623067939605]
本稿では,画像から2次元物体を検出するリアルタイム手法を提案する。
我々は、加速度RTを活用して、検出パイプラインの推論時間を最適化する。
我々のフレームワークはNvidia Tesla V100 GPU上で45.8ms/frameのレイテンシを実現する。
論文 参考訳(メタデータ) (2021-06-16T11:32:03Z) - V2F-Net: Explicit Decomposition of Occluded Pedestrian Detection [8.490082777982906]
v2f-netはオクルード歩行者検出を可視領域検出と全身推定に明示的に分解する。
V2F-Netは、可視領域検出ネットワーク(VDN)とフルボディ推定ネットワーク(FEN)の2つのサブネットワークで構成される。
さらに全身の推定を改善するために, EPM ( Embedding-based Part-aware Module) を提案する。
論文 参考訳(メタデータ) (2021-04-07T13:12:16Z) - OPANAS: One-Shot Path Aggregation Network Architecture Search for Object
Detection [82.04372532783931]
近年、ニューラルアーキテクチャサーチ (NAS) が特徴ピラミッドネットワーク (FPN) の設計に活用されている。
本稿では,探索効率と検出精度を大幅に向上させる,ワンショットパス集約ネットワークアーキテクチャ探索(OPANAS)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-08T01:48:53Z) - PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector
Representation for 3D Object Detection [100.60209139039472]
点雲からの正確な3次元検出を行うために,PointVoxel Region based Convolution Neural Networks (PVRCNNs)を提案する。
提案するPV-RCNNは,Openデータセットと高競争性KITTIベンチマークの両方において,従来の最先端3D検出方法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-01-31T14:51:49Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - DR-SPAAM: A Spatial-Attention and Auto-regressive Model for Person
Detection in 2D Range Data [81.06749792332641]
本研究では,異なるタイミングで得られたスキャンを組み合わせ,代替戦略を用いた人物検出ネットワークを提案する。
DR-SPAAMは、バックボーンネットワークから中間機能をテンプレートとして保持し、新しいスキャンが利用可能になったときにテンプレートをリカレントに更新する。
DROWデータセットでは,提案手法は既存の最先端技術よりも約4倍高速である。
論文 参考訳(メタデータ) (2020-04-29T11:01:44Z) - Detection in Crowded Scenes: One Proposal, Multiple Predictions [79.28850977968833]
混み合ったシーンにおける高過度なインスタンスを検出することを目的とした,提案手法によるオブジェクト検出手法を提案する。
このアプローチの鍵は、各提案が以前の提案ベースのフレームワークの1つではなく、関連したインスタンスのセットを予測できるようにすることです。
我々の検出器は、CrowdHumanデータセットの挑戦に対して4.9%のAPゲインを得ることができ、CityPersonsデータセットでは1.0%$textMR-2$の改善がある。
論文 参考訳(メタデータ) (2020-03-20T09:48:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。