論文の概要: Intelligent Spatial Estimation for Fire Hazards in Engineering Sites: An Enhanced YOLOv8-Powered Proximity Analysis Framework
- arxiv url: http://arxiv.org/abs/2603.09069v1
- Date: Tue, 10 Mar 2026 01:27:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.928027
- Title: Intelligent Spatial Estimation for Fire Hazards in Engineering Sites: An Enhanced YOLOv8-Powered Proximity Analysis Framework
- Title(参考訳): 工学現場における火災危険度の知能的空間推定:強化されたYOLOv8による確率解析フレームワーク
- Authors: Ammar K. AlMhdawi, Nonso Nnamoko, Alaa Mashan Ubaid,
- Abstract要約: 本研究は、インテリジェント火災検知と近接認識リスク評価のための強化された2モデルYOLOv8フレームワークを提案する。
このフレームワークは、火と煙の検出のための主要なYOLOv8インスタンスセグメンテーションモデルと、COCOデータセットで事前訓練された二次オブジェクト検出モデルを組み合わせて、周囲のエンティティを識別する。
提案フレームワークは、精度、リコール、F1スコアが90%以上、mAP@0.5スコアが91%以上、高い性能を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study proposes an enhanced dual-model YOLOv8 framework for intelligent fire detection and proximity-aware risk assessment, extending conventional vision-based monitoring beyond simple detection to actionable hazard prioritization. The system is trained on a dataset of 9,860 annotated images to segment fire and smoke across complex environments. The framework combines a primary YOLOv8 instance segmentation model for fire and smoke detection with a secondary object detection model pretrained on the COCO dataset to identify surrounding entities such as people, vehicles, and infrastructure. By integrating the outputs of both models, the system computes pixel-based distances between detected fire regions and nearby objects and converts these values into approximate real-world measurements using a pixel-to-meter scaling approach. This proximity information is incorporated into a risk assessment mechanism that combines fire evidence, object vulnerability, and distance-based exposure to produce a quantitative risk score and alert level. The proposed framework achieves strong performance, with precision, recall, and F1 scores exceeding 90% and mAP@0.5 above 91%. The system generates annotated visual outputs showing fire locations, detected objects, estimated distances, and contextual risk information to support situational awareness. Implemented using open-source tools within the Google Colab environment, the framework is lightweight and suitable for deployment in industrial and resource-constrained settings.
- Abstract(参考訳): 本研究では,知的火災検知と近接認識型リスクアセスメントのための2モデルYOLOv8フレームワークを提案する。
このシステムは9,860枚の注釈付き画像のデータセットで訓練され、複雑な環境で火と煙を分離する。
このフレームワークは、火と煙の検出のための主要なYOLOv8インスタンスセグメンテーションモデルと、COCOデータセットで事前訓練された二次オブジェクト検出モデルを組み合わせて、人、車、インフラなどの周囲のエンティティを識別する。
両モデルの出力を統合することで,検出した火災領域と近傍の物体との画素ベース距離を計算し,これらの値をピクセル・ツー・メーター・スケーリング・アプローチを用いて近似実世界の測定値に変換する。
この近接情報は、火災証拠、物体の脆弱性、距離に基づく露出を組み合わせたリスク評価機構に組み込まれ、定量的なリスクスコアと警告レベルを生成する。
提案フレームワークは、精度、リコール、F1スコアが90%以上、mAP@0.5スコアが91%以上、高い性能を達成する。
このシステムは、火災位置、検出された物体、推定距離、状況認識を支援するためのコンテキストリスク情報を示す注釈付き視覚出力を生成する。
Google Colab環境でオープンソースツールを使用して実装されたこのフレームワークは、軽量で、産業用およびリソース制約のある環境へのデプロイに適している。
関連論文リスト
- Zero-shot HOI Detection with MLLM-based Detector-agnostic Interaction Recognition [71.5328300638085]
Zero-shot Human-Object Interaction (HOI) は、画像中の人間と物体を特定し、その相互作用を認識することを目的としている。
2段階法を含む既存の手法は、特定の検出器との相互作用認識を密に結合する。
本稿では、オブジェクト検出をIRから分離し、マルチモーダル大言語モデル(MLLM)をゼロショットIRに活用する分離フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-16T19:01:31Z) - DetectiumFire: A Comprehensive Multi-modal Dataset Bridging Vision and Language for Fire Understanding [5.257894673786823]
DetectiumFireは、22.5kの高解像度火災関連画像と2.5kの現実世界火災関連ビデオからなる大規模マルチモーダルデータセットである。
データは従来のコンピュータビジョンラベル(例えば、バウンディングボックス)とシーンを記述する詳細なテキストプロンプトの両方で注釈付けされる。
我々は、オブジェクト検出、拡散ベース画像生成、視覚言語推論など、複数のタスクにまたがるDetectiumFireの有用性を検証する。
論文 参考訳(メタデータ) (2025-11-04T11:33:11Z) - Uncertainty-Aware Post-Detection Framework for Enhanced Fire and Smoke Detection in Compact Deep Learning Models [0.0]
既存のビジョンベースの手法は、効率性と信頼性のバランスをとる上で困難に直面している。
YOLOv5nやYOLOv8nといったディープラーニングモデルは、UAV、CCTVシステム、IoTデバイスへのデプロイに広く採用されている。
本稿では,統計的不確実性と領域関連視覚的手がかりの両方を用いて,検出信頼度を再スケールする不確実性検出後フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-11T08:36:57Z) - So-Fake: Benchmarking and Explaining Social Media Image Forgery Detection [75.79507634008631]
So-Fake-Setは、200万以上の高品質な画像、多様な生成源、35の最先端生成モデルを用いて合成された画像を備えたソーシャルメディア指向のデータセットである。
本稿では,高精度な偽造検出,高精度な位置推定,解釈可能な視覚論理による説明可能な推論に強化学習を利用する高度な視覚言語フレームワークであるSo-Fake-R1を提案する。
論文 参考訳(メタデータ) (2025-05-24T11:53:35Z) - Towards a Multi-Agent Vision-Language System for Zero-Shot Novel Hazardous Object Detection for Autonomous Driving Safety [0.0]
視覚言語推論とゼロショットオブジェクト検出を統合したマルチモーダル手法を提案する。
予測ハザードとバウンディングボックスアノテーションを一致させるために,OpenAIのCLIPモデルを取り入れたオブジェクト検出を改良する。
その結果,現在の視覚言語に基づくアプローチの長所と短所が明らかになった。
論文 参考訳(メタデータ) (2025-04-18T01:25:02Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - FireRisk: A Remote Sensing Dataset for Fire Risk Assessment with
Benchmarks Using Supervised and Self-supervised Learning [1.6596490382976503]
本研究では, 火災リスク評価のために, 91872 画像を含む7つの火災リスククラスからなる新しいリモートセンシングデータセット FireRisk を提案する。
FireRiskでは,Masked Autoencoders (MAE) がImageNet1k上で事前トレーニングされ,65.29%の分類精度が得られた。
論文 参考訳(メタデータ) (2023-03-13T11:54:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。