論文の概要: Light-YOLOv8-Flame: A Lightweight High-Performance Flame Detection Algorithm
- arxiv url: http://arxiv.org/abs/2504.08389v1
- Date: Fri, 11 Apr 2025 09:42:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:18:50.764746
- Title: Light-YOLOv8-Flame: A Lightweight High-Performance Flame Detection Algorithm
- Title(参考訳): Light-YOLOv8-Flame:軽量高性能火炎検出アルゴリズム
- Authors: Jiawei Lan, Zhibiao Wang, Haoyang Yu, Ye Tao, Wenhua Cui,
- Abstract要約: 本稿では,リアルタイム展開に特化した軽量火炎検出アルゴリズムLight-YOLOv8-Flameを紹介する。
提案したモデルは、オリジナルのC2fモジュールをFasterNet Blockモジュールに置き換えることで、YOLOv8アーキテクチャを強化する。
- 参考スコア(独自算出の注目度): 7.749651062075137
- License:
- Abstract: Fire detection algorithms, particularly those based on computer vision, encounter significant challenges such as high computational costs and delayed response times, which hinder their application in real-time systems. To address these limitations, this paper introduces Light-YOLOv8-Flame, a lightweight flame detection algorithm specifically designed for fast and efficient real-time deployment. The proposed model enhances the YOLOv8 architecture through the substitution of the original C2f module with the FasterNet Block module. This new block combines Partial Convolution (PConv) and Convolution (Conv) layers, reducing both computational complexity and model size. A dataset comprising 7,431 images, representing both flame and non-flame scenarios, was collected and augmented for training purposes. Experimental findings indicate that the modified YOLOv8 model achieves a 0.78% gain in mean average precision (mAP) and a 2.05% boost in recall, while reducing the parameter count by 25.34%, with only a marginal decrease in precision by 0.82%. These findings highlight that Light-YOLOv8-Flame offers enhanced detection performance and speed, making it well-suited for real-time fire detection on resource-constrained devices.
- Abstract(参考訳): 火災検知アルゴリズム(特にコンピュータビジョンに基づくもの)は、高い計算コストや遅延応答時間などの重大な課題に遭遇し、リアルタイムシステムへの応用を妨げている。
これらの制約に対処するために,高速かつ効率的なリアルタイム展開を目的とした軽量火炎検出アルゴリズムLight-YOLOv8-Flameを提案する。
提案したモデルは、オリジナルのC2fモジュールをFasterNet Blockモジュールに置き換えることで、YOLOv8アーキテクチャを強化する。
このブロックは部分的畳み込み(PConv)層と畳み込み(Conv)層を組み合わせたもので、計算複雑性とモデルサイズの両方を削減する。
火炎と非火炎の両方のシナリオを表す7,431枚の画像からなるデータセットを収集し、トレーニング目的で拡張した。
実験の結果, 改良型YOLOv8モデルでは平均精度(mAP)が0.78%, リコール率が2.05%向上し, パラメータ数が25.34%減少し, 限界精度が0.82%低下した。
これらの結果は、Light-YOLOv8-Flameが検知性能と速度を向上し、リソース制約のあるデバイスでのリアルタイム火災検知に適していることを示している。
関連論文リスト
- Efficient Diffusion as Low Light Enhancer [63.789138528062225]
RATR(Reflectance-Aware Trajectory Refinement)は、イメージの反射成分を用いて教師の軌跡を洗練するための、シンプルで効果的なモジュールである。
textbfReDDiT (textbfDistilled textbfTrajectory) は低照度画像強調(LLIE)に適した効率的で柔軟な蒸留フレームワークである。
論文 参考訳(メタデータ) (2024-10-16T08:07:18Z) - EFA-YOLO: An Efficient Feature Attention Model for Fire and Flame Detection [3.334973867478745]
EAConv(Efficient Attention Downsampling)とEADown(Efficient Attention Downsampling)の2つの重要なモジュールを提案する。
これら2つのモジュールに基づいて,効率的な軽量火炎検出モデル EFA-YOLO (Efficient Feature Attention YOLO) を設計する。
EFA-YOLOは検出精度(mAP)と推論速度を著しく向上させ、モデルパラメータの量を94.6削減し、推論速度を88倍改善した。
論文 参考訳(メタデータ) (2024-09-19T10:20:07Z) - Octave-YOLO: Cross frequency detection network with octave convolution [1.6114012813668932]
Octave-YOLOは組み込みシステムの制約内で高解像度画像をリアルタイムに処理するように設計されている。
結果: 1080x1080 の解像度では、Ocave-YOLO-N は YOLOv8 の 1.56 倍の速度である。
論文 参考訳(メタデータ) (2024-07-29T07:18:11Z) - High-Throughput, High-Performance Deep Learning-Driven Light Guide Plate
Surface Visual Quality Inspection Tailored for Real-World Manufacturing
Environments [75.66288398180525]
光導光板は、医療用照明器具からバックライトテレビディスプレイまで幅広い用途で広く利用されている光学部品である。
本研究では,光ガイド板表面の視覚的品質検査(VQI)を現実の製造環境に適した,完全に統合された,高性能なディープラーニング駆動ワークフローを提案する。
完全統合VQIシステム内のエッジコンピューティング上でのVQIの自動化を実現するため、高コンパクトな深層アンチエイリアス型アテンションコンデンサニューラルネットワーク(LightDefectNetと呼ぶ)が開発された。
LightDetectNetが検出精度を実現する実験
論文 参考訳(メタデータ) (2022-12-20T20:11:11Z) - Light-YOLOv5: A Lightweight Algorithm for Improved YOLOv5 in Complex
Fire Scenarios [8.721557548002737]
本稿では,高速かつ精度のバランスをとる軽量なライトヨロブ5火災検知アルゴリズムを提案する。
実験の結果、Light-YOLOv5は元のアルゴリズムに比べてmAPを3.3%改善し、パラメータ数を27.1%減らし、計算量を19.1%減らし、FPSは91.1に達した。
論文 参考訳(メタデータ) (2022-08-29T08:36:04Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - ETAD: A Unified Framework for Efficient Temporal Action Detection [70.21104995731085]
時間的行動検出(TAD)のようなトリミングされていないビデオ理解は、しばしば計算資源に対する膨大な需要の苦痛に悩まされる。
我々は、効率的なエンド・ツー・エンドの時間的行動検出(ETAD)のための統合されたフレームワークを構築している。
ETADはTHUMOS-14とActivityNet-1.3の両方で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-14T21:16:21Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - FRDet: Balanced and Lightweight Object Detector based on Fire-Residual
Modules for Embedded Processor of Autonomous Driving [0.0]
本稿では, 精度, モデルサイズ, リアルタイム処理の制約をすべて満たすために, バランスのとれた軽量一段物体検出器を提案する。
我々のネットワークは、YOLOv3の精度を達成または超えながら、モデルの圧縮を最大化することを目的としている。
論文 参考訳(メタデータ) (2020-11-16T16:15:43Z) - Efficient and Compact Convolutional Neural Network Architectures for
Non-temporal Real-time Fire Detection [12.515216618616206]
ビデオ(または静止画像)における火のピクセル領域の非時間的リアルタイム検出境界に対する、さまざまな畳み込みニューラルネットワーク(CNN)アーキテクチャとその変種について検討する。
NasNet-A-OnFire と ShuffleNetV2-OnFire の2つの小型CNNアーキテクチャを実験的解析により提案し,その計算効率を最適化した。
特に、バイナリ分類では2.3x、スーパーピクセルローカライゼーションでは1.3x、ランタイムは40fpsと18fpsである。
論文 参考訳(メタデータ) (2020-10-17T17:48:04Z) - Highly Efficient Salient Object Detection with 100K Parameters [137.74898755102387]
そこで我々は,段階内および複数ステージのマルチスケール機能を効率的に活用するために,フレキシブルな畳み込みモジュールであるOctoConv(gOctConv)を提案する。
我々は、非常に軽量なモデル、すなわちCSNetを構築し、一般的なオブジェクト検出ベンチマークで、約0.2%(100k)の大規模モデルで同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-03-12T07:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。