論文の概要: Efficient and Compact Convolutional Neural Network Architectures for
Non-temporal Real-time Fire Detection
- arxiv url: http://arxiv.org/abs/2010.08833v1
- Date: Sat, 17 Oct 2020 17:48:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 11:40:31.920856
- Title: Efficient and Compact Convolutional Neural Network Architectures for
Non-temporal Real-time Fire Detection
- Title(参考訳): 非時間的リアルタイム火災検出のための効率的かつコンパクトな畳み込みニューラルネットワークアーキテクチャ
- Authors: William Thomson, Neelanjan Bhowmik, Toby P. Breckon
- Abstract要約: ビデオ(または静止画像)における火のピクセル領域の非時間的リアルタイム検出境界に対する、さまざまな畳み込みニューラルネットワーク(CNN)アーキテクチャとその変種について検討する。
NasNet-A-OnFire と ShuffleNetV2-OnFire の2つの小型CNNアーキテクチャを実験的解析により提案し,その計算効率を最適化した。
特に、バイナリ分類では2.3x、スーパーピクセルローカライゼーションでは1.3x、ランタイムは40fpsと18fpsである。
- 参考スコア(独自算出の注目度): 12.515216618616206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic visual fire detection is used to complement traditional fire
detection sensor systems (smoke/heat). In this work, we investigate different
Convolutional Neural Network (CNN) architectures and their variants for the
non-temporal real-time bounds detection of fire pixel regions in video (or
still) imagery. Two reduced complexity compact CNN architectures
(NasNet-A-OnFire and ShuffleNetV2-OnFire) are proposed through experimental
analysis to optimise the computational efficiency for this task. The results
improve upon the current state-of-the-art solution for fire detection,
achieving an accuracy of 95% for full-frame binary classification and 97% for
superpixel localisation. We notably achieve a classification speed up by a
factor of 2.3x for binary classification and 1.3x for superpixel localisation,
with runtime of 40 fps and 18 fps respectively, outperforming prior work in the
field presenting an efficient, robust and real-time solution for fire region
detection. Subsequent implementation on low-powered devices (Nvidia Xavier-NX,
achieving 49 fps for full-frame classification via ShuffleNetV2-OnFire)
demonstrates our architectures are suitable for various real-world deployment
applications.
- Abstract(参考訳): 自動視覚火災検知は、従来の火災検知センサーシステム(煙や熱)を補完するために用いられる。
本研究では,ビデオ(あるいは静止画像)における火の画素領域の非時間的リアルタイム境界検出のための,さまざまな畳み込みニューラルネットワーク(CNN)アーキテクチャとその変異について検討する。
NasNet-A-OnFire と ShuffleNetV2-OnFire の2つの小型CNNアーキテクチャを実験的解析により提案し,その計算効率を最適化した。
その結果,現在の火災検出ソリューションにより,全フレームバイナリ分類では95%,スーパーピクセルローカライズでは97%の精度が向上した。
特に,2値分類では2.3x,スーパーピクセルローカライゼーションでは1.3x,実行時40fpsと18fpsで分類速度が向上した。
その後の低消費電力デバイス(Nvidia Xavier-NX、ShuffleNetV2-OnFireによるフルフレーム分類で49fpsを達成した)への実装は、私たちのアーキテクチャが様々な実世界のデプロイアプリケーションに適していることを実証している。
関連論文リスト
- SegNet: A Segmented Deep Learning based Convolutional Neural Network Approach for Drones Wildfire Detection [2.07180164747172]
本研究は,無人航空機(UAV)/ドローンによる地球規模の山火事検出における処理時間と検出能力の向上という課題に対処するものである。
我々は,リアルタイムの山火事検出における処理速度と精度を大幅に向上させるため,特徴マップの削減に重点を置いている。
論文 参考訳(メタデータ) (2024-02-29T15:23:12Z) - Fire Detection From Image and Video Using YOLOv5 [0.0]
改良されたYOLOv5火災検出深層学習アルゴリズムを提案する。
Fire-YOLOv5は最先端のオブジェクト検出ネットワークと比較して優れた結果が得られる。
入力画像サイズが416×416のとき、平均検出時間は1フレームあたり0.12秒である。
論文 参考訳(メタデータ) (2023-10-10T06:37:03Z) - Obscured Wildfire Flame Detection By Temporal Analysis of Smoke Patterns
Captured by Unmanned Aerial Systems [0.799536002595393]
本研究は,RGBカメラのみを搭載したドローンを用いて,隠された山火事をリアルタイムに検出する課題について論じる。
本稿では,ビデオシーケンス中の煙のパターンの時間的解析に基づくセマンティックセグメンテーションを用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-30T19:45:43Z) - FSDNet-An efficient fire detection network for complex scenarios based
on YOLOv3 and DenseNet [8.695064779659031]
本稿では,特徴抽出モジュール,火災分類モジュール,火災検出モジュールから構成されるFSDNet(Fire Smoke Detection Network)を提案する。
2つのベンチマークデータセットにおけるFSDNetの精度は、それぞれ99.82%と91.15%であり、MS-FSの平均精度は86.80%である。
論文 参考訳(メタデータ) (2023-04-15T15:46:08Z) - EAutoDet: Efficient Architecture Search for Object Detection [110.99532343155073]
EAutoDetフレームワークは、1.4GPU日でオブジェクト検出のための実用的なバックボーンとFPNアーキテクチャを検出できる。
本稿では,一方のエッジ上での候補演算の重みを共有し,それらを一つの畳み込みに集約することでカーネル再利用手法を提案する。
特に、発見されたアーキテクチャは最先端のオブジェクト検出NAS法を超越し、120 FPSで40.1 mAP、49.2 mAP、41.3 FPSをCOCOテストデブセットで達成している。
論文 参考訳(メタデータ) (2022-03-21T05:56:12Z) - Weakly-supervised fire segmentation by visualizing intermediate CNN
layers [82.75113406937194]
画像やビデオにおける火の局所化は、火災事故に対処するための自律システムにとって重要なステップである。
我々は,ネットワークのトレーニングに画像ラベルのみを使用する,画像中の火の弱い制御セグメント化について検討する。
CNNの中間層における特徴量の平均値は,2値セグメンテーション問題である火災セグメンテーションの場合,従来のクラスアクティベーションマッピング(CAM)法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-16T11:56:28Z) - NAS-FCOS: Efficient Search for Object Detection Architectures [113.47766862146389]
簡易なアンカーフリー物体検出器の特徴ピラミッドネットワーク (FPN) と予測ヘッドを探索し, より効率的な物体検出手法を提案する。
慎重に設計された検索空間、検索アルゴリズム、ネットワーク品質を評価するための戦略により、8つのV100 GPUを使用して、4日以内に最高のパフォーマンスの検知アーキテクチャを見つけることができる。
論文 参考訳(メタデータ) (2021-10-24T12:20:04Z) - PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector
Representation for 3D Object Detection [100.60209139039472]
点雲からの正確な3次元検出を行うために,PointVoxel Region based Convolution Neural Networks (PVRCNNs)を提案する。
提案するPV-RCNNは,Openデータセットと高競争性KITTIベンチマークの両方において,従来の最先端3D検出方法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-01-31T14:51:49Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - R-FCN: Object Detection via Region-based Fully Convolutional Networks [87.62557357527861]
我々は,高精度かつ効率的な物体検出のための領域ベースの完全畳み込みネットワークを提案する。
我々の結果は、Faster R-CNNよりも2.5-20倍高速で、1画像あたり170msのテストタイムで達成される。
論文 参考訳(メタデータ) (2016-05-20T15:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。