論文の概要: YOLO-FireAD: Efficient Fire Detection via Attention-Guided Inverted Residual Learning and Dual-Pooling Feature Preservation
- arxiv url: http://arxiv.org/abs/2505.20884v1
- Date: Tue, 27 May 2025 08:29:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.514563
- Title: YOLO-FireAD: Efficient Fire Detection via Attention-Guided Inverted Residual Learning and Dual-Pooling Feature Preservation
- Title(参考訳): YOLO-FireAD: 注意誘導型倒立残差学習とデュアルプール機能保存による効率的な火災検知
- Authors: Weichao Pan, Bohan Xu, Xu Wang, Chengze Lv, Shuoyang Wang, Zhenke Duan,
- Abstract要約: 本研究は, 意識誘導型逆残差・デュアルプールダウンスケール核融合(YOLO-FireAD)による火災検出に一度だけ注目することを提案する。
提案モデルでは,パラメータの総和 (1.45M, 51.8%, YOLOv8nより4.6G, 43.2%, YOLOv8nより43.2%) を維持し, mAP75 は YOLOv8n, YOL-Ov9t, YOLOv10n, YOLO11n, YOLOv12n および他の YOLOv8 変種 1.3- よりも高い。
- 参考スコア(独自算出の注目度): 2.685429444359711
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fire detection in dynamic environments faces continuous challenges, including the interference of illumination changes, many false detections or missed detections, and it is difficult to achieve both efficiency and accuracy. To address the problem of feature extraction limitation and information loss in the existing YOLO-based models, this study propose You Only Look Once for Fire Detection with Attention-guided Inverted Residual and Dual-pooling Downscale Fusion (YOLO-FireAD) with two core innovations: (1) Attention-guided Inverted Residual Block (AIR) integrates hybrid channel-spatial attention with inverted residuals to adaptively enhance fire features and suppress environmental noise; (2) Dual Pool Downscale Fusion Block (DPDF) preserves multi-scale fire patterns through learnable fusion of max-average pooling outputs, mitigating small-fire detection failures. Extensive evaluation on two public datasets shows the efficient performance of our model. Our proposed model keeps the sum amount of parameters (1.45M, 51.8% lower than YOLOv8n) (4.6G, 43.2% lower than YOLOv8n), and mAP75 is higher than the mainstream real-time object detection models YOLOv8n, YOL-Ov9t, YOLOv10n, YOLO11n, YOLOv12n and other YOLOv8 variants 1.3-5.5%.
- Abstract(参考訳): 動的環境における火災検知は、照明変化の干渉、多くの誤検知や見逃し検出など、継続的な課題に直面しており、効率と精度の両方を達成することは困難である。
既存のYOLOモデルでは,機能抽出の限界と情報損失に対処するため,(1)意図誘導型逆直交型逆流型逆流型逆流型ダウンスケール核融合(YOLO-FireAD)と,(1)意図誘導型逆流型逆流型ダウンスケール核融合(YOLO-FireAD)の2つのコアイニシアチブを併用したYou Only Look Once for Fire Detection for Attention-guided Insidual and Dual-pooling Downscale Fusion(YOLO-FireAD)を提案する。
2つの公開データセットの大規模な評価は、我々のモデルの効率的な性能を示している。
提案モデルでは,パラメータの総和 (1.45M,51.8%, YOLOv8nより4.6G, 43.2%, YOLOv8nより43.2%) を保ち, mAP75は主要なリアルタイムオブジェクト検出モデル YOLOv8n, YOL-Ov9t, YOLOv10n, YOLO11n, YOLOv12nおよび他のYOLOv8変種 1.3-5.5% よりも高い値を示した。
関連論文リスト
- LAM-YOLO: Drones-based Small Object Detection on Lighting-Occlusion Attention Mechanism YOLO [0.9062164411594178]
LAM-YOLOは、ドローンベースの画像に特化して設計されたオブジェクト検出モデルである。
我々は、異なる照明条件下での小さな目標の視認性を高めるために、光遮断注意機構を導入する。
次に、回帰損失関数として改良されたSIB-IoUを用いてモデル収束を加速し、局所化精度を向上させる。
論文 参考訳(メタデータ) (2024-11-01T10:00:48Z) - YOLO-ELA: Efficient Local Attention Modeling for High-Performance Real-Time Insulator Defect Detection [0.0]
無人航空機からの絶縁体欠陥検出のための既存の検出方法は、複雑な背景や小さな物体と競合する。
本稿では,この課題に対処するため,新しい注目基盤アーキテクチャであるYOLO-ELAを提案する。
高分解能UAV画像による実験結果から,本手法は96.9% mAP0.5,リアルタイム検出速度74.63フレーム/秒を実現した。
論文 参考訳(メタデータ) (2024-10-15T16:00:01Z) - EFA-YOLO: An Efficient Feature Attention Model for Fire and Flame Detection [3.334973867478745]
EAConv(Efficient Attention Downsampling)とEADown(Efficient Attention Downsampling)の2つの重要なモジュールを提案する。
これら2つのモジュールに基づいて,効率的な軽量火炎検出モデル EFA-YOLO (Efficient Feature Attention YOLO) を設計する。
EFA-YOLOは検出精度(mAP)と推論速度を著しく向上させ、モデルパラメータの量を94.6削減し、推論速度を88倍改善した。
論文 参考訳(メタデータ) (2024-09-19T10:20:07Z) - Fall Detection for Industrial Setups Using YOLOv8 Variants [0.0]
25.9百万のパラメータと79.1のGFLOPからなるYOLOv8mモデルでは、計算効率と検出性能のバランスが良好であった。
YOLOv8l と YOLOv8x モデルでは精度とリコールが向上したが、その高い計算要求とモデルサイズによりリソース制約のある環境には適さない。
論文 参考訳(メタデータ) (2024-08-08T17:24:54Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - Light-YOLOv5: A Lightweight Algorithm for Improved YOLOv5 in Complex
Fire Scenarios [8.721557548002737]
本稿では,高速かつ精度のバランスをとる軽量なライトヨロブ5火災検知アルゴリズムを提案する。
実験の結果、Light-YOLOv5は元のアルゴリズムに比べてmAPを3.3%改善し、パラメータ数を27.1%減らし、計算量を19.1%減らし、FPSは91.1に達した。
論文 参考訳(メタデータ) (2022-08-29T08:36:04Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。