論文の概要: TYolov5: A Temporal Yolov5 Detector Based on Quasi-Recurrent Neural
Networks for Real-Time Handgun Detection in Video
- arxiv url: http://arxiv.org/abs/2111.08867v1
- Date: Wed, 17 Nov 2021 02:35:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 22:43:43.114105
- Title: TYolov5: A Temporal Yolov5 Detector Based on Quasi-Recurrent Neural
Networks for Real-Time Handgun Detection in Video
- Title(参考訳): TYolov5:ビデオにおけるリアルタイムハンドガン検出のための準リカレントニューラルネットワークに基づく一時ヨーロフ5検出器
- Authors: Mario Alberto Duran-Vega, Miguel Gonzalez-Mendoza, Leonardo
Chang-Fernandez, Cuauhtemoc Daniel Suarez-Ramirez
- Abstract要約: タイムリーハンドガン検出は、公共の安全を改善する上で重要な問題である。
ハンドガン検出に関する以前の研究の多くは、静的画像検出器に基づいていた。
監視システムの性能向上のためには,リアルタイムの時空間拳銃検出システムを構築する必要がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Timely handgun detection is a crucial problem to improve public safety;
nevertheless, the effectiveness of many surveillance systems still depend of
finite human attention. Much of the previous research on handgun detection is
based on static image detectors, leaving aside valuable temporal information
that could be used to improve object detection in videos. To improve the
performance of surveillance systems, a real-time temporal handgun detection
system should be built. Using Temporal Yolov5, an architecture based in
Quasi-Recurrent Neural Networks, temporal information is extracted from video
to improve the results of the handgun detection. Moreover, two publicity
available datasets are proposed, labeled with hands, guns, and phones. One
containing 2199 static images to train static detectors, and another with 5960
frames of videos to train temporal modules. Additionally, we explore two
temporal data augmentation techniques based in Mosaic and Mixup. The resulting
systems are three temporal architectures: one focused in reducing inference
with a mAP$_{50:95}$ of 56.1, another in having a good balance between
inference and accuracy with a mAP$_{50:95}$ of 59.4, and a last one specialized
in accuracy with a mAP$_{50:95}$ of 60.2. Temporal Yolov5 achieves real-time
detection in the small and medium architectures. Moreover, it takes advantage
of temporal features contained in videos to perform better than Yolov5 in our
temporal dataset, making TYolov5 suitable for real-world applications. The
source code is publicly available at https://github.com/MarioDuran/TYolov5.
- Abstract(参考訳): タイムリーな拳銃検出は公衆の安全を改善する上で重要な問題である。しかしながら、多くの監視システムの有効性は、依然として有限の人間の注意に依存している。
以前の拳銃検出に関する研究の多くは静的な画像検出器に基づいており、ビデオの物体検出を改善するのに使える貴重な時間情報を残している。
監視システムの性能向上のためには,リアルタイムの拳銃検出システムを構築する必要がある。
準リカレントニューラルネットワークに基づくアーキテクチャであるTemporal Yolov5を用いて、ビデオから時間情報を抽出し、拳銃検出の結果を改善する。
さらに、手、銃、電話でラベル付けされた2つの公開データセットも提案されている。
ひとつは静的検出器をトレーニングする2199の静的イメージと、もうひとつは時間モジュールをトレーニングする5960フレームのビデオだ。
さらに,モザイクとミックスアップに基づく時間的データ拡張手法について検討する。
その結果得られたシステムは、3つの時間的アーキテクチャである: 1つはmap$_{50:95}$が56.1、もう1つは推論と精度のバランスが良いmap$_{50:95}$が59.4、もう1つはmap$_{50:95}$が60.2の精度を専門とする。
テンポラリyolov5は、中小規模アーキテクチャでリアルタイム検出を実現する。
さらに、ビデオに含まれる時間的特徴を利用して、時間的データセットのYolov5よりも優れたパフォーマンスを実現しています。
ソースコードはhttps://github.com/marioduran/tyolov5で公開されている。
関連論文リスト
- Spatiotemporal Attention-based Semantic Compression for Real-time Video
Recognition [117.98023585449808]
本稿では,各フレームにおけるフレームと画素の重要性を評価するために,時間的注意に基づくオートエンコーダ(STAE)アーキテクチャを提案する。
我々は3D-2D CNNを組み合わせた軽量デコーダを開発し、欠落した情報を再構成する。
実験の結果,VT_STAEはビデオデータセットH51を,5%の精度で104倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2023-05-22T07:47:27Z) - CCTV-Gun: Benchmarking Handgun Detection in CCTV Images [59.24281591714385]
銃の暴力は重要なセキュリティ問題であり、コンピュータビジョンコミュニティが効果的な銃検出アルゴリズムを開発することが必須である。
実際のCCTV画像から銃を検出することは、未だに困難で未調査の課題である。
我々は,実世界のCCTV画像における拳銃検出の課題に対処するベンチマーク「textbfCCTV-Gun」を提案する。
論文 参考訳(メタデータ) (2023-03-19T16:17:35Z) - Real-Time Driver Monitoring Systems through Modality and View Analysis [28.18784311981388]
ドライバーの気晴らしが道路事故の主要な原因であることが知られている。
State-of-the-artメソッドはレイテンシを無視しながら精度を優先する。
本稿では,ビデオフレーム間の時間的関係を無視した時間効率な検出モデルを提案する。
論文 参考訳(メタデータ) (2022-10-17T21:22:41Z) - Real Time Action Recognition from Video Footage [0.5219568203653523]
ビデオ監視カメラは犯罪を検知する新しい次元を追加した。
本研究は、暴力行為を検出するための自律監視のための堅牢なパイプラインを確保するために、最先端のディープラーニング手法を統合することに焦点を当てる。
論文 参考訳(メタデータ) (2021-12-13T07:27:41Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - ST-HOI: A Spatial-Temporal Baseline for Human-Object Interaction
Detection in Videos [91.29436920371003]
時空間HoI検出(ST-HOI)という,シンプルで効果的なアーキテクチャを提案する。
我々は、人や物体の軌跡、正しく位置付けられた視覚的特徴、空間的マスキングのポーズ特徴などの時間的情報を利用する。
我々は、VidHOIと呼ばれる新しいビデオHOIベンチマークを構築し、提案手法は安定したベースラインとして機能する。
論文 参考訳(メタデータ) (2021-05-25T07:54:35Z) - MULTICAST: MULTI Confirmation-level Alarm SysTem based on CNN and LSTM
to mitigate false alarms for handgun detection in video-surveillance [11.626928736124038]
CNNとLong Short Term Memory Network(LSTM)に基づくマルチ確認レベルAlarm SysTem(MULTICAST)
実験の結果,MultiCASTは,より高速なR-CNNベースの単一画像検出器と比較して80%の誤報数を減らすことがわかった。
論文 参考訳(メタデータ) (2021-04-23T15:07:58Z) - ACDnet: An action detection network for real-time edge computing based
on flow-guided feature approximation and memory aggregation [8.013823319651395]
ACDnetは、リアルタイムエッジコンピューティングをターゲットとしたコンパクトなアクション検出ネットワークです。
連続するビデオフレーム間の時間的コヒーレンスを利用してCNNの特徴を近似する。
リアルタイム(75FPS)よりはるかに高い精度で検出できる。
論文 参考訳(メタデータ) (2021-02-26T14:06:31Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - An Analysis of Deep Object Detectors For Diver Detection [19.14344722263869]
ビデオから得られたダイバーの注釈付き画像を約105,000枚作成する。
私たちは、Mobilenetを使ったSSD、Faster R-CNN、YOLOなど、オブジェクト検出のための最先端のディープニューラルネットワークをトレーニングしています。
この結果に基づき、ロボットのリアルタイム応用にTiny-YOLOv4を推奨する。
論文 参考訳(メタデータ) (2020-11-25T01:50:32Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。