論文の概要: FireRescue: A UAV-Based Dataset and Enhanced YOLO Model for Object Detection in Fire Rescue Scenes
- arxiv url: http://arxiv.org/abs/2512.24622v1
- Date: Wed, 31 Dec 2025 04:37:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.571975
- Title: FireRescue: A UAV-Based Dataset and Enhanced YOLO Model for Object Detection in Fire Rescue Scenes
- Title(参考訳): FireRescue: 救助現場における対象検出のためのUAVベースデータセットと拡張YOLOモデル
- Authors: Qingyu Xu, Runtong Zhang, Zihuan Qiu, Fanman Meng,
- Abstract要約: 本稿では,複数の救助シナリオをカバーする,救助コマンドのための新しいデータセット"FireRescue"を最初に構築する。
次に,FRS-YOLOと呼ばれる改良モデルを提案する。
- 参考スコア(独自算出の注目度): 24.465732878368545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object detection in fire rescue scenarios is importance for command and decision-making in firefighting operations. However, existing research still suffers from two main limitations. First, current work predominantly focuses on environments such as mountainous or forest areas, while paying insufficient attention to urban rescue scenes, which are more frequent and structurally complex. Second, existing detection systems include a limited number of classes, such as flames and smoke, and lack a comprehensive system covering key targets crucial for command decisions, such as fire trucks and firefighters. To address the above issues, this paper first constructs a new dataset named "FireRescue" for rescue command, which covers multiple rescue scenarios, including urban, mountainous, forest, and water areas, and contains eight key categories such as fire trucks and firefighters, with a total of 15,980 images and 32,000 bounding boxes. Secondly, to tackle the problems of inter-class confusion and missed detection of small targets caused by chaotic scenes, diverse targets, and long-distance shooting, this paper proposes an improved model named FRS-YOLO. On the one hand, the model introduces a plug-and-play multidi-mensional collaborative enhancement attention module, which enhances the discriminative representation of easily confused categories (e.g., fire trucks vs. ordinary trucks) through cross-dimensional feature interaction. On the other hand, it integrates a dynamic feature sampler to strengthen high-response foreground features, thereby mitigating the effects of smoke occlusion and background interference. Experimental results demonstrate that object detection in fire rescue scenarios is highly challenging, and the proposed method effectively improves the detection performance of YOLO series models in this context.
- Abstract(参考訳): 火災救助シナリオにおける物体検出は、消防活動における指揮と意思決定において重要である。
しかし、既存の研究は2つの大きな限界に悩まされている。
第一に、現在の作業は主に山岳地帯や森林地帯などの環境に焦点を当て、より頻度が高く構造的に複雑である都市救助シーンに十分な注意を払っている。
第二に、既存の検知システムには、火災や煙のような限られた数のクラスが含まれており、消防車や消防士のような指令決定に不可欠な重要な目標をカバーする包括的なシステムがない。
本報告では, 都市, 山間, 森林, 水域など複数の救助シナリオをカバーし, 消防車, 消防車, 消防車など8つの重要カテゴリーに合計15,980枚の画像と32,000個の拘束箱を収録した「消防救助」と呼ばれる救助コマンド用データセットを構築した。
次に, クラス間の混同や, カオスシーン, 多様なターゲット, 長距離射撃による小目標の検出の欠如に対処するために, FRS-YOLO と呼ばれる改良モデルを提案する。
一方,本モデルでは,複数次元協調型強化注意モジュールを導入し,多次元的特徴相互作用により,容易に混同されたカテゴリ(例えば,消防車と一般トラック)の識別表現を向上する。
一方、ダイナミックな特徴サンプリング装置を統合して、高応答な前景特性を強化し、煙閉塞や背景干渉の影響を緩和する。
実験により, 火災救助シナリオにおける物体検出は極めて困難であることが示され, 提案手法は, この状況下でのYOLOシリーズモデルの検出性能を効果的に向上する。
関連論文リスト
- PyroFocus: A Deep Learning Approach to Real-Time Wildfire Detection in Multispectral Remote Sensing Imagery [0.0]
迅速かつ正確な山火事検出は、緊急対応と環境管理に不可欠である。
空中飛行と宇宙飛行のミッションでは、リアルタイムアルゴリズムは火災、活動的な火災、および発射後の条件を区別しなければならない。
火の分類を行い,火の放射力(FRP)レグレッションやセグメンテーションを施した2段パイプラインであるPyroFocusを導入する。
論文 参考訳(メタデータ) (2025-12-02T21:59:45Z) - Seamless Detection: Unifying Salient Object Detection and Camouflaged Object Detection [73.85890512959861]
本稿では,SOD(Salient Object Detection)とCOD(Camouflaged Object Detection)を統合化するためのタスク非依存フレームワークを提案する。
我々は、間隔層と大域的コンテキストを含む単純で効果的なコンテキストデコーダを設計し、67fpsの推論速度を実現する。
公開SODデータセットとCODデータセットの実験は、教師なし設定と教師なし設定の両方において、提案したフレームワークの優位性を実証している。
論文 参考訳(メタデータ) (2024-12-22T03:25:43Z) - CCi-YOLOv8n: Enhanced Fire Detection with CARAFE and Context-Guided Modules [0.3749861135832073]
都市部や森林地帯での火災は深刻な脅威となる。
小型火災や煙の検知を目標とした改良型YOLOv8モデルであるCCi-YOLOv8nを提案する。
論文 参考訳(メタデータ) (2024-11-17T09:31:04Z) - MonoTDP: Twin Depth Perception for Monocular 3D Object Detection in
Adverse Scenes [49.21187418886508]
本論文は,モノTDP(MonoTDP)と呼ばれる悪シーンにおける2つの深度を知覚するモノクル3次元検出モデルを提案する。
まず、制御不能な気象条件を扱うモデルを支援するための適応学習戦略を導入し、様々な劣化要因による劣化を著しく抑制する。
そこで本研究では, シーン深度と物体深度を同時に推定する新たな2つの深度認識モジュールを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:42:02Z) - Image-Based Fire Detection in Industrial Environments with YOLOv4 [53.180678723280145]
この研究は、AIが火災を検出し、認識し、画像ストリーム上のオブジェクト検出を使用して検出時間を短縮する可能性を検討する。
そこで我々は, YOLOv4オブジェクト検出器をベースとした複数のモデルのトレーニングと評価に使用されてきた複数の公開情報源から, 適切なデータを収集, ラベル付けした。
論文 参考訳(メタデータ) (2022-12-09T11:32:36Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z) - Unmanned Aerial Systems for Wildland and Forest Fires [0.0]
森林火災は経済的損失、人命、重要な環境被害を引き起こす重要な自然災害である。
森林と森林の火災支援と戦闘のための専用ソリューションの開発に向けた研究が進められている。
無人航空システム(UAS)は操縦性のために有用であることが証明されている。
論文 参考訳(メタデータ) (2020-04-28T23:01:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。