論文の概要: Real-Time Aerial Fire Detection on Resource-Constrained Devices Using Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2502.20979v1
- Date: Fri, 28 Feb 2025 11:49:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:41:50.452361
- Title: Real-Time Aerial Fire Detection on Resource-Constrained Devices Using Knowledge Distillation
- Title(参考訳): 知識蒸留を用いた資源制約装置のリアルタイム火災検知
- Authors: Sabina Jangirova, Branislava Jankovic, Waseem Ullah, Latif U. Khan, Mohsen Guizani,
- Abstract要約: 森林火災の災害は、環境劣化、人的損失、財政的損害を著しく引き起こす。
現在のシステムは、主に視野の限られた固定CCTVカメラに依存しており、大規模な屋外環境での有効性を制限している。
より強力な教師モデルからの知識の蒸留を通じて圧縮されたMobileViT-Sに基づく軽量火災検知モデルを提案する。
- 参考スコア(独自算出の注目度): 29.875425833515973
- License:
- Abstract: Wildfire catastrophes cause significant environmental degradation, human losses, and financial damage. To mitigate these severe impacts, early fire detection and warning systems are crucial. Current systems rely primarily on fixed CCTV cameras with a limited field of view, restricting their effectiveness in large outdoor environments. The fusion of intelligent fire detection with remote sensing improves coverage and mobility, enabling monitoring in remote and challenging areas. Existing approaches predominantly utilize convolutional neural networks and vision transformer models. While these architectures provide high accuracy in fire detection, their computational complexity limits real-time performance on edge devices such as UAVs. In our work, we present a lightweight fire detection model based on MobileViT-S, compressed through the distillation of knowledge from a stronger teacher model. The ablation study highlights the impact of a teacher model and the chosen distillation technique on the model's performance improvement. We generate activation map visualizations using Grad-CAM to confirm the model's ability to focus on relevant fire regions. The high accuracy and efficiency of the proposed model make it well-suited for deployment on satellites, UAVs, and IoT devices for effective fire detection. Experiments on common fire benchmarks demonstrate that our model suppresses the state-of-the-art model by 0.44%, 2.00% while maintaining a compact model size. Our model delivers the highest processing speed among existing works, achieving real-time performance on resource-constrained devices.
- Abstract(参考訳): 森林火災の災害は、環境劣化、人的損失、財政的損害を著しく引き起こす。
これらの深刻な影響を緩和するためには、早期火災検知と警報システムが不可欠である。
現在のシステムは、主に視野の限られた固定CCTVカメラに依存しており、大規模な屋外環境での有効性を制限している。
インテリジェントな火災検知とリモートセンシングの融合により、カバーと移動性が向上し、遠隔および挑戦的な領域での監視が可能になる。
既存のアプローチは主に畳み込みニューラルネットワークとビジョントランスフォーマーモデルを利用している。
これらのアーキテクチャは、火災検知において高い精度を提供するが、その計算複雑性は、UAVのようなエッジデバイス上でのリアルタイムのパフォーマンスを制限する。
本研究では,より強力な教師モデルからの知識の蒸留を通じて圧縮されたMobileViT-Sに基づく軽量火災検知モデルを提案する。
アブレーション研究は,教師モデルと選択された蒸留技術がモデルの性能改善に与える影響を明らかにする。
我々はGrad-CAMを用いてアクティベーションマップの可視化を生成し、関連する火災領域にフォーカスするモデルの能力を確認する。
提案したモデルの高精度と効率性により、衛星、UAV、IoTデバイスへの展開が効果的な火災検知に適している。
実測実験により,我々のモデルでは,コンパクトなモデルサイズを維持しながら,最先端モデルの0.44%,2.00%を抑えることができた。
本モデルは,資源制約されたデバイス上でのリアルタイム性能を実現するため,既存の作業の中で最も高速な処理速度を実現する。
関連論文リスト
- Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - CCi-YOLOv8n: Enhanced Fire Detection with CARAFE and Context-Guided Modules [0.0]
都市部や森林地帯での火災は深刻な脅威となる。
小型火災や煙の検知を目標とした改良型YOLOv8モデルであるCCi-YOLOv8nを提案する。
論文 参考訳(メタデータ) (2024-11-17T09:31:04Z) - EFA-YOLO: An Efficient Feature Attention Model for Fire and Flame Detection [3.334973867478745]
EAConv(Efficient Attention Downsampling)とEADown(Efficient Attention Downsampling)の2つの重要なモジュールを提案する。
これら2つのモジュールに基づいて,効率的な軽量火炎検出モデル EFA-YOLO (Efficient Feature Attention YOLO) を設計する。
EFA-YOLOは検出精度(mAP)と推論速度を著しく向上させ、モデルパラメータの量を94.6削減し、推論速度を88倍改善した。
論文 参考訳(メタデータ) (2024-09-19T10:20:07Z) - TSCM: A Teacher-Student Model for Vision Place Recognition Using Cross-Metric Knowledge Distillation [6.856317526681759]
視覚的位置認識は、移動ロボットの自律的な探索とナビゲーションにおいて重要な役割を果たす。
既存の手法では、強力だが大規模なネットワークを利用することでこれを克服している。
本稿では,TSCMと呼ばれる高性能な教師と軽量な学生蒸留フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-02T02:29:41Z) - Hardware Acceleration for Real-Time Wildfire Detection Onboard Drone
Networks [6.313148708539912]
遠隔地や森林地帯での山火事の検出は 破壊と生態系の保全を 最小化するのに不可欠です
ドローンは、高度な撮像技術を備えた、リモートで困難な地形へのアジャイルアクセスを提供する。
限られた計算とバッテリリソースは、画像分類モデルの実装と効率的な実装に困難をもたらす。
本稿では,リアルタイム画像分類と火災分断モデルの構築を目的とする。
論文 参考訳(メタデータ) (2024-01-16T04:16:46Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - Image-Based Fire Detection in Industrial Environments with YOLOv4 [53.180678723280145]
この研究は、AIが火災を検出し、認識し、画像ストリーム上のオブジェクト検出を使用して検出時間を短縮する可能性を検討する。
そこで我々は, YOLOv4オブジェクト検出器をベースとした複数のモデルのトレーニングと評価に使用されてきた複数の公開情報源から, 適切なデータを収集, ラベル付けした。
論文 参考訳(メタデータ) (2022-12-09T11:32:36Z) - Meta-UDA: Unsupervised Domain Adaptive Thermal Object Detection using
Meta-Learning [64.92447072894055]
赤外線(IR)カメラは、照明条件や照明条件が悪ければ頑丈である。
既存のUDA手法を改善するためのアルゴリズムメタ学習フレームワークを提案する。
KAISTおよびDSIACデータセットのための最先端熱検出器を作成した。
論文 参考訳(メタデータ) (2021-10-07T02:28:18Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Assessing out-of-domain generalization for robust building damage
detection [78.6363825307044]
建築損傷検出は、衛星画像にコンピュータビジョン技術を適用することで自動化することができる。
モデルは、トレーニングで利用可能な災害画像と、新しいイベントの画像の間の分散の変化に対して堅牢でなければならない。
今後はOOD体制に重点を置くべきだと我々は主張する。
論文 参考訳(メタデータ) (2020-11-20T10:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。