論文の概要: FSDNet-An efficient fire detection network for complex scenarios based
on YOLOv3 and DenseNet
- arxiv url: http://arxiv.org/abs/2304.07584v1
- Date: Sat, 15 Apr 2023 15:46:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 18:14:20.292664
- Title: FSDNet-An efficient fire detection network for complex scenarios based
on YOLOv3 and DenseNet
- Title(参考訳): FSDNet - YOLOv3とDenseNetに基づく複雑なシナリオのための効率的な火災検知ネットワーク
- Authors: Li Zhu, Jiahui Xiong, Wenxian Wu, Hongyu Yu
- Abstract要約: 本稿では,特徴抽出モジュール,火災分類モジュール,火災検出モジュールから構成されるFSDNet(Fire Smoke Detection Network)を提案する。
2つのベンチマークデータセットにおけるFSDNetの精度は、それぞれ99.82%と91.15%であり、MS-FSの平均精度は86.80%である。
- 参考スコア(独自算出の注目度): 8.695064779659031
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fire is one of the common disasters in daily life. To achieve fast and
accurate detection of fires, this paper proposes a detection network called
FSDNet (Fire Smoke Detection Network), which consists of a feature extraction
module, a fire classification module, and a fire detection module. Firstly, a
dense connection structure is introduced in the basic feature extraction module
to enhance the feature extraction ability of the backbone network and alleviate
the gradient disappearance problem. Secondly, a spatial pyramid pooling
structure is introduced in the fire detection module, and the Mosaic data
augmentation method and CIoU loss function are used in the training process to
comprehensively improve the flame feature extraction ability. Finally, in view
of the shortcomings of public fire datasets, a fire dataset called MS-FS
(Multi-scene Fire And Smoke) containing 11938 fire images was created through
data collection, screening, and object annotation. To prove the effectiveness
of the proposed method, the accuracy of the method was evaluated on two
benchmark fire datasets and MS-FS. The experimental results show that the
accuracy of FSDNet on the two benchmark datasets is 99.82% and 91.15%,
respectively, and the average precision on MS-FS is 86.80%, which is better
than the mainstream fire detection methods.
- Abstract(参考訳): 火事は日常生活でよくある災害の1つだ。
本稿では,火災の迅速かつ正確な検出を実現するために,特徴抽出モジュール,火災分類モジュール,火災検出モジュールからなるfsdnet (fire smoke detection network) と呼ばれる検出ネットワークを提案する。
まず、基本特徴抽出モジュールに高密度接続構造を導入し、バックボーンネットワークの特徴抽出能力を高め、勾配消去問題を緩和する。
次に、火災検出モジュールに空間ピラミッドプーリング構造を導入し、訓練工程においてモザイクデータ拡張法とキュー損失関数を用いて、火炎特徴抽出能力を総合的に改善する。
最後に、公共の火災データセットの欠点から、11938年の火災画像を含むms-fs(multi-scene fire and smoke)と呼ばれる火災データセットがデータ収集、スクリーニング、オブジェクトアノテーションによって作成された。
提案手法の有効性を証明するため,2つのベンチマークファイアデータセットとMS-FSを用いて評価を行った。
実験の結果、2つのベンチマークデータセットにおけるFSDNetの精度は、それぞれ99.82%と91.15%であり、MS-FSの平均精度は86.80%であり、主流の火災検出方法よりも優れていることがわかった。
関連論文リスト
- Fire and Smoke Detection with Burning Intensity Representation [14.738038604117364]
火災の破壊的可能性から, 効果的な火災・煙検知・解析システム(FSD)が重要視されている。
多くの既存のFSD法は、火災や煙の透明性を考慮せずに、直接ジェネリックオブジェクト検出技術を用いている。
この問題に対処するため,新しい火災・煙検知モデル (a-FSDM) が提案されている。
論文 参考訳(メタデータ) (2024-10-22T02:41:37Z) - Rapid Wildfire Hotspot Detection Using Self-Supervised Learning on Temporal Remote Sensing Data [0.12289361708127873]
衛星ネットワークや高度なAIモデルからリモートセンシングされたデータを活用して、ホットスポットを自動的に検出することは、山火事モニタリングシステムを構築する効果的な方法である。
本稿では,欧州の火災イベントに関連するリモートセンシングデータの時系列を含む新しいデータセットと,多時期データを解析し,潜在的にほぼリアルタイムにホットスポットを識別できる自己監視学習(SSL)モデルを提案する。
我々は、我々のデータセットといくつかの火災イベントを含む熱異常のデータセットであるThrawsを用いて、モデルの性能を訓練し、評価し、F1スコア63.58を得る。
論文 参考訳(メタデータ) (2024-05-30T14:31:46Z) - Fire Detection From Image and Video Using YOLOv5 [0.0]
改良されたYOLOv5火災検出深層学習アルゴリズムを提案する。
Fire-YOLOv5は最先端のオブジェクト検出ネットワークと比較して優れた結果が得られる。
入力画像サイズが416×416のとき、平均検出時間は1フレームあたり0.12秒である。
論文 参考訳(メタデータ) (2023-10-10T06:37:03Z) - Obscured Wildfire Flame Detection By Temporal Analysis of Smoke Patterns
Captured by Unmanned Aerial Systems [0.799536002595393]
本研究は,RGBカメラのみを搭載したドローンを用いて,隠された山火事をリアルタイムに検出する課題について論じる。
本稿では,ビデオシーケンス中の煙のパターンの時間的解析に基づくセマンティックセグメンテーションを用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-30T19:45:43Z) - Detector-Free Structure from Motion [63.5577809314603]
そこで我々は,非秩序な画像から正確なカメラポーズと点雲を復元する新しい構造抽出フレームワークを提案する。
我々のフレームワークはまず、量子化された検出器レスマッチングから粗いSfMモデルを再構成する。
提案手法が既存の検出器ベースのSfMシステムより優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2023-06-27T17:59:39Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - Weakly-supervised fire segmentation by visualizing intermediate CNN
layers [82.75113406937194]
画像やビデオにおける火の局所化は、火災事故に対処するための自律システムにとって重要なステップである。
我々は,ネットワークのトレーニングに画像ラベルのみを使用する,画像中の火の弱い制御セグメント化について検討する。
CNNの中間層における特徴量の平均値は,2値セグメンテーション問題である火災セグメンテーションの場合,従来のクラスアクティベーションマッピング(CAM)法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-16T11:56:28Z) - Attention on Classification for Fire Segmentation [82.75113406937194]
本稿では,画像中の火災の分類とセグメンテーションのための畳み込みニューラルネットワーク(CNN)を提案する。
我々は,空間的自己認識機構を用いて画素間の長距離依存性を捉えるとともに,分類確率を注目重みとして利用する新しいチャネルアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2021-11-04T19:52:49Z) - Efficient and Compact Convolutional Neural Network Architectures for
Non-temporal Real-time Fire Detection [12.515216618616206]
ビデオ(または静止画像)における火のピクセル領域の非時間的リアルタイム検出境界に対する、さまざまな畳み込みニューラルネットワーク(CNN)アーキテクチャとその変種について検討する。
NasNet-A-OnFire と ShuffleNetV2-OnFire の2つの小型CNNアーキテクチャを実験的解析により提案し,その計算効率を最適化した。
特に、バイナリ分類では2.3x、スーパーピクセルローカライゼーションでは1.3x、ランタイムは40fpsと18fpsである。
論文 参考訳(メタデータ) (2020-10-17T17:48:04Z) - Contextual-Bandit Anomaly Detection for IoT Data in Distributed
Hierarchical Edge Computing [65.78881372074983]
IoTデバイスは複雑なディープニューラルネットワーク(DNN)モデルにはほとんど余裕がなく、異常検出タスクをクラウドにオフロードすることは長い遅延を引き起こす。
本稿では,分散階層エッジコンピューティング(HEC)システムを対象とした適応型異常検出手法のデモと構築を行う。
提案手法は,検出タスクをクラウドにオフロードした場合と比較して,精度を犠牲にすることなく検出遅延を著しく低減することを示す。
論文 参考訳(メタデータ) (2020-04-15T06:13:33Z) - ASFD: Automatic and Scalable Face Detector [129.82350993748258]
ASFD(Automatic and Scalable Face Detector)を提案する。
ASFDはニューラルアーキテクチャ検索技術の組み合わせと新たな損失設計に基づいている。
ASFD-D0は120FPS以上で動作し、MobilenetはVGA解像度の画像を撮影しています。
論文 参考訳(メタデータ) (2020-03-25T06:00:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。