論文の概要: Obscured Wildfire Flame Detection By Temporal Analysis of Smoke Patterns
Captured by Unmanned Aerial Systems
- arxiv url: http://arxiv.org/abs/2307.00104v1
- Date: Fri, 30 Jun 2023 19:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 18:00:31.792564
- Title: Obscured Wildfire Flame Detection By Temporal Analysis of Smoke Patterns
Captured by Unmanned Aerial Systems
- Title(参考訳): 無人航空機による煙パターンの時間解析による火災火災検出
- Authors: Uma Meleti and Abolfazl Razi
- Abstract要約: 本研究は,RGBカメラのみを搭載したドローンを用いて,隠された山火事をリアルタイムに検出する課題について論じる。
本稿では,ビデオシーケンス中の煙のパターンの時間的解析に基づくセマンティックセグメンテーションを用いた新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.799536002595393
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This research paper addresses the challenge of detecting obscured wildfires
(when the fire flames are covered by trees, smoke, clouds, and other natural
barriers) in real-time using drones equipped only with RGB cameras. We propose
a novel methodology that employs semantic segmentation based on the temporal
analysis of smoke patterns in video sequences. Our approach utilizes an
encoder-decoder architecture based on deep convolutional neural network
architecture with a pre-trained CNN encoder and 3D convolutions for decoding
while using sequential stacking of features to exploit temporal variations. The
predicted fire locations can assist drones in effectively combating forest
fires and pinpoint fire retardant chemical drop on exact flame locations. We
applied our method to a curated dataset derived from the FLAME2 dataset that
includes RGB video along with IR video to determine the ground truth. Our
proposed method has a unique property of detecting obscured fire and achieves a
Dice score of 85.88%, while achieving a high precision of 92.47% and
classification accuracy of 90.67% on test data showing promising results when
inspected visually. Indeed, our method outperforms other methods by a
significant margin in terms of video-level fire classification as we obtained
about 100% accuracy using MobileNet+CBAM as the encoder backbone.
- Abstract(参考訳): 本研究は,木や煙,雲など自然の障壁に覆われた火炎を,RGBカメラのみを搭載したドローンでリアルタイムに検出するという課題に対処するものである。
本稿では,ビデオシーケンス中の煙のパターンの時間的解析に基づくセマンティックセグメンテーションを用いた新しい手法を提案する。
本手法は,事前学習したcnnエンコーダを用いた深層畳み込みニューラルネットワークアーキテクチャに基づくエンコーダ-デコーダアーキテクチャと,時間的変動を生かすために特徴の逐次積み重ねを用いたデコードのための3次元畳み込みを用いる。
予測される火災場所は、ドローンが森林火災と効果的に戦うのを助けることができる。
本手法は,irビデオとともにrgbビデオを含むfreme2データセットから得られたキュレートデータセットに適用し,基礎的真理を判定する。
提案手法は, 火災を検知するユニークな特性を有し, 85.88%のサイススコアを達成し, 高精度92.47%, 分類精度90.67%を, 視覚的に検査すると有望な結果が得られる。
実際,ビデオレベルの火災分類では,MobileNet+CBAMをエンコーダのバックボーンとして,約100%の精度で達成し,他の手法よりも優れていた。
関連論文リスト
- FlameFinder: Illuminating Obscured Fire through Smoke with Attentive Deep Metric Learning [11.218765140036254]
FlameFinderは、山火事の監視中に消防士のドローンの熱画像を使って、煙によって隠されたとしても、炎を正確に検知するように設計されている。
従来のRGBカメラはそのような状況では苦戦するが、熱カメラは煙を吸収する炎の特徴を捉えることができる。
この問題を解決するために、FlameFinderは2枚の熱-RGB画像を用いてトレーニングを行っている。煙のないサンプルから潜熱火炎の特徴を学習することで、モデルは相対的な熱勾配に偏りが小さくなる。
論文 参考訳(メタデータ) (2024-04-09T23:24:19Z) - FSDNet-An efficient fire detection network for complex scenarios based
on YOLOv3 and DenseNet [8.695064779659031]
本稿では,特徴抽出モジュール,火災分類モジュール,火災検出モジュールから構成されるFSDNet(Fire Smoke Detection Network)を提案する。
2つのベンチマークデータセットにおけるFSDNetの精度は、それぞれ99.82%と91.15%であり、MS-FSの平均精度は86.80%である。
論文 参考訳(メタデータ) (2023-04-15T15:46:08Z) - Image-Based Fire Detection in Industrial Environments with YOLOv4 [53.180678723280145]
この研究は、AIが火災を検出し、認識し、画像ストリーム上のオブジェクト検出を使用して検出時間を短縮する可能性を検討する。
そこで我々は, YOLOv4オブジェクト検出器をベースとした複数のモデルのトレーニングと評価に使用されてきた複数の公開情報源から, 適切なデータを収集, ラベル付けした。
論文 参考訳(メタデータ) (2022-12-09T11:32:36Z) - TempNet: Temporal Attention Towards the Detection of Animal Behaviour in
Videos [63.85815474157357]
本稿では,映像中の生物学的行動を検出するための,効率的なコンピュータビジョンと深層学習に基づく手法を提案する。
TempNetはエンコーダブリッジと残留ブロックを使用して、2段階の空間的、そして時間的、エンコーダでモデル性能を維持する。
本研究では,サブルフィッシュ (Anoplopoma fimbria) 幼虫の検出への応用を実証する。
論文 参考訳(メタデータ) (2022-11-17T23:55:12Z) - EAutoDet: Efficient Architecture Search for Object Detection [110.99532343155073]
EAutoDetフレームワークは、1.4GPU日でオブジェクト検出のための実用的なバックボーンとFPNアーキテクチャを検出できる。
本稿では,一方のエッジ上での候補演算の重みを共有し,それらを一つの畳み込みに集約することでカーネル再利用手法を提案する。
特に、発見されたアーキテクチャは最先端のオブジェクト検出NAS法を超越し、120 FPSで40.1 mAP、49.2 mAP、41.3 FPSをCOCOテストデブセットで達成している。
論文 参考訳(メタデータ) (2022-03-21T05:56:12Z) - Meta-UDA: Unsupervised Domain Adaptive Thermal Object Detection using
Meta-Learning [64.92447072894055]
赤外線(IR)カメラは、照明条件や照明条件が悪ければ頑丈である。
既存のUDA手法を改善するためのアルゴリズムメタ学習フレームワークを提案する。
KAISTおよびDSIACデータセットのための最先端熱検出器を作成した。
論文 参考訳(メタデータ) (2021-10-07T02:28:18Z) - Shot boundary detection method based on a new extensive dataset and
mixed features [68.8204255655161]
ビデオにおけるショット境界検出は、ビデオデータ処理の重要な段階の1つである。
カラーヒストグラムや物体境界などの映像特徴に基づくショット境界検出法が提案されている。
論文 参考訳(メタデータ) (2021-09-02T16:19:24Z) - Active Fire Detection in Landsat-8 Imagery: a Large-Scale Dataset and a
Deep-Learning Study [1.3764085113103217]
本稿では,深層学習技術を用いた火災検知のための大規模データセットについて紹介する。
本稿では,様々な畳み込みニューラルネットワークアーキテクチャを用いて手作りアルゴリズムを近似する方法について検討する。
提案されたデータセット、ソースコード、トレーニングされたモデルはGithubで入手できる。
論文 参考訳(メタデータ) (2021-01-09T19:05:03Z) - Aerial Imagery Pile burn detection using Deep Learning: the FLAME
dataset [9.619617596045911]
FLAME(Fire Luminosity Airborne-based Machine Learning Evaluation)は、火災の空中画像のデータセットを提供する。
本論文は,アリゾナ松林において,所定の燃えるデトリタスの間,ドローンが収集した火災画像データセットを提供する。
また、この論文は2つの機械学習問題の解決策を強調している: 火炎の存在と不在に基づくビデオフレームのバイナリ分類。
論文 参考訳(メタデータ) (2020-12-28T00:00:41Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - Efficient and Compact Convolutional Neural Network Architectures for
Non-temporal Real-time Fire Detection [12.515216618616206]
ビデオ(または静止画像)における火のピクセル領域の非時間的リアルタイム検出境界に対する、さまざまな畳み込みニューラルネットワーク(CNN)アーキテクチャとその変種について検討する。
NasNet-A-OnFire と ShuffleNetV2-OnFire の2つの小型CNNアーキテクチャを実験的解析により提案し,その計算効率を最適化した。
特に、バイナリ分類では2.3x、スーパーピクセルローカライゼーションでは1.3x、ランタイムは40fpsと18fpsである。
論文 参考訳(メタデータ) (2020-10-17T17:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。