論文の概要: Detection Fire in Camera RGB-NIR
- arxiv url: http://arxiv.org/abs/2512.23594v1
- Date: Mon, 29 Dec 2025 16:48:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.583388
- Title: Detection Fire in Camera RGB-NIR
- Title(参考訳): カメラRGB-NIRにおける火災検出
- Authors: Nguyen Truong Khai, Luong Duc Vinh,
- Abstract要約: 本報告では,追加のNIRデータセット,2段階検出モデル,Patched-YOLOについて述べる。
人工照明による偽陽性を低減しつつ夜間火災検知精度を向上させるため, YOLOv11とEfficientNetV2-B0を組み合わせた2段階パイプラインを提案する。
最後に,RGB画像,特に小・遠距離物体の火災検出を改善するために,Patched-YOLOを導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Improving the accuracy of fire detection using infrared night vision cameras remains a challenging task. Previous studies have reported strong performance with popular detection models. For example, YOLOv7 achieved an mAP50-95 of 0.51 using an input image size of 640 x 1280, RT-DETR reached an mAP50-95 of 0.65 with an image size of 640 x 640, and YOLOv9 obtained an mAP50-95 of 0.598 at the same resolution. Despite these results, limitations in dataset construction continue to cause issues, particularly the frequent misclassification of bright artificial lights as fire. This report presents three main contributions: an additional NIR dataset, a two-stage detection model, and Patched-YOLO. First, to address data scarcity, we explore and apply various data augmentation strategies for both the NIR dataset and the classification dataset. Second, to improve night-time fire detection accuracy while reducing false positives caused by artificial lights, we propose a two-stage pipeline combining YOLOv11 and EfficientNetV2-B0. The proposed approach achieves higher detection accuracy compared to previous methods, particularly for night-time fire detection. Third, to improve fire detection in RGB images, especially for small and distant objects, we introduce Patched-YOLO, which enhances the model's detection capability through patch-based processing. Further details of these contributions are discussed in the following sections.
- Abstract(参考訳): 赤外線暗視カメラによる火災検知の精度向上は依然として困難な課題である。
従来の研究では、一般的な検出モデルによる強い性能が報告されている。
例えば、YOLOv7は640 x 1280の入力画像サイズで0.51のmAP50-95を獲得し、RT-DETRは640 x 640のイメージサイズで0.65のmAP50-95に達し、YOLOv9は0.598のmAP50-95を得た。
これらの結果にもかかわらず、データセット構築の制限は問題を引き起こし続けており、特に明るい人工的な光を火災として頻繁に誤分類している。
本報告では,NIRデータセットの追加,2段階検出モデル,Patched-YOLOの3つの主要なコントリビューションについて述べる。
まず、データの不足に対処するために、NIRデータセットと分類データセットの両方に対して、さまざまなデータ拡張戦略を検討し、適用する。
第2に、人工照明による偽陽性を低減しつつ夜間火災検知精度を向上させるために、YOLOv11とEfficientNetV2-B0を組み合わせた2段階パイプラインを提案する。
提案手法は,特に夜間火災検知において,従来手法と比較して高い検出精度を実現する。
第3に,RGB画像,特に小・遠距離オブジェクトの火災検出を改善するために,パッチベースの処理によりモデルの検出能力を向上するPatched-YOLOを導入する。
これらの貢献について、以下の節で詳述する。
関連論文リスト
- SCU-CGAN: Enhancing Fire Detection through Synthetic Fire Image Generation and Dataset Augmentation [6.933111681872053]
本稿では,U-NetとCBAMを統合したSCU-CGANモデルと,ノンファイア画像から現実的な火災画像を生成するための識別器を提案する。
SCU-CGANはCycleGANと比較して41.5%のKIDスコアを達成し、生成した火災画像の優れた品質を示した。
実験により、拡張データセットは、構造を変化させることなく、火災検出モデルの精度を大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-12-09T08:38:11Z) - YOLO-FireAD: Efficient Fire Detection via Attention-Guided Inverted Residual Learning and Dual-Pooling Feature Preservation [5.819675225521611]
本研究は, 意識誘導型逆残差・デュアルプールダウンスケール核融合(YOLO-FireAD)による火災検出に一度だけ注目することを提案する。
注意誘導型逆残差ブロック(AIR)は、ハイブリッドチャネル空間の注意と逆残差を統合し、火災特性を適応的に増強し、環境騒音を抑制する。
Dual Pool Downscale Fusion Block (DPDF)は、最大平均プール出力の学習可能な融合を通じて、マルチスケールの火災パターンを保存する。
論文 参考訳(メタデータ) (2025-05-27T08:29:07Z) - Detecting Wildfire Flame and Smoke through Edge Computing using Transfer Learning Enhanced Deep Learning Models [7.222438368943405]
本研究は、山火事の煙や炎を識別する対象検出器の性能を高める上で、トランスファーラーニング(TL)の重要性を裏付けるものである。
本稿では,D-Fire あるいは FASDD を初期目標データセットとして,AFSE をその後の段階として利用する2段階の TL 手法について検討する。
微調整により、TLは検出精度を大幅に向上し、平均平均精度(mAP@0.5)は79.2%まで向上し、トレーニング時間を短縮し、モデルの一般化性を高める。
論文 参考訳(メタデータ) (2025-01-15T08:04:44Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - SpirDet: Towards Efficient, Accurate and Lightweight Infrared Small
Target Detector [60.42293239557962]
我々は、赤外線小ターゲットの効率的な検出のための新しいアプローチであるSpirDetを提案する。
新しいデュアルブランチスパースデコーダを用いて特徴写像を復元する。
大規模な実験により、提案されたSpirDetは最先端モデルよりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-02-08T05:06:14Z) - Constructing a Real-World Benchmark for Early Wildfire Detection with the New PYRONEAR-2025 Dataset [0.0]
PYRONEAR-2025は、画像とビデオの両方からなる新しいデータセットであり、煙管検出モデルのトレーニングと評価を可能にする。
i) 野火検出のための公共のカメラネットワークからの山火事のビデオ、(ii) 社内のカメラネットワークからの映像、(iii) 合成画像と実際の画像の一部。
このデータセットには5万のイメージに対する15万のマニュアルアノテーションが含まれており、640の山火事をカバーしている。
論文 参考訳(メタデータ) (2024-02-08T02:01:36Z) - Long-Tailed 3D Detection via Multi-Modal Fusion [58.89765900064689]
本研究では,Long-Tailed 3D Detection (LT3D) の問題点について検討した。
単モードLiDARとRGB検出器を独立に訓練した多モード遅延核融合(MMLF)により,レアクラスの精度が特に向上することが指摘されている。
我々のMMLFはLT3Dの先行作業よりも優れており、特に12.8から20.0mAPまでの6つのレアなクラスで改善されています。
論文 参考訳(メタデータ) (2023-12-18T07:14:25Z) - Fire Detection From Image and Video Using YOLOv5 [0.0]
改良されたYOLOv5火災検出深層学習アルゴリズムを提案する。
Fire-YOLOv5は最先端のオブジェクト検出ネットワークと比較して優れた結果が得られる。
入力画像サイズが416×416のとき、平均検出時間は1フレームあたり0.12秒である。
論文 参考訳(メタデータ) (2023-10-10T06:37:03Z) - Enhancing Low-Light Images Using Infrared-Encoded Images [81.8710581927427]
従来の芸術は、主にピクセルワイド・ロスを用いて可視光スペクトルで捉えた低照度画像に焦点を当てていた。
我々は,赤外線カットオフフィルタを除去することにより,低照度環境下で撮影された画像の可視性を高める新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-09T08:29:19Z) - Meta-UDA: Unsupervised Domain Adaptive Thermal Object Detection using
Meta-Learning [64.92447072894055]
赤外線(IR)カメラは、照明条件や照明条件が悪ければ頑丈である。
既存のUDA手法を改善するためのアルゴリズムメタ学習フレームワークを提案する。
KAISTおよびDSIACデータセットのための最先端熱検出器を作成した。
論文 参考訳(メタデータ) (2021-10-07T02:28:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。