論文の概要: Two-Stage Framework for Efficient UAV-Based Wildfire Video Analysis with Adaptive Compression and Fire Source Detection
- arxiv url: http://arxiv.org/abs/2508.16739v1
- Date: Fri, 22 Aug 2025 18:27:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.154608
- Title: Two-Stage Framework for Efficient UAV-Based Wildfire Video Analysis with Adaptive Compression and Fire Source Detection
- Title(参考訳): 適応圧縮と火災源検出を併用した高能率UAV映像解析のための2段階フレームワーク
- Authors: Yanbing Bai, Rui-Yang Ju, Lemeng Zhao, Junjie Hu, Jianchao Bi, Erick Mas, Shunichi Koshimura,
- Abstract要約: UAVプラットフォーム上でのリアルタイムの山火事モニタリングと火災源検出のためのフレームワークを提案する。
特にステージ1では、冗長なビデオクリップを識別・破棄するためにポリシーネットワークを使用します。
ステージ2では、フレームを「火」に分類すると、改良されたYOLOv8モデルを使用して火源をローカライズする。
- 参考スコア(独自算出の注目度): 4.796400107449626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unmanned Aerial Vehicles (UAVs) have become increasingly important in disaster emergency response by enabling real-time aerial video analysis. Due to the limited computational resources available on UAVs, large models cannot be run independently for real-time analysis. To overcome this challenge, we propose a lightweight and efficient two-stage framework for real-time wildfire monitoring and fire source detection on UAV platforms. Specifically, in Stage 1, we utilize a policy network to identify and discard redundant video clips using frame compression techniques, thereby reducing computational costs. In addition, we introduce a station point mechanism that leverages future frame information within the sequential policy network to improve prediction accuracy. In Stage 2, once the frame is classified as "fire", we employ the improved YOLOv8 model to localize the fire source. We evaluate the Stage 1 method using the FLAME and HMDB51 datasets, and the Stage 2 method using the Fire & Smoke dataset. Experimental results show that our method significantly reduces computational costs while maintaining classification accuracy in Stage 1, and achieves higher detection accuracy with similar inference time in Stage 2 compared to baseline methods.
- Abstract(参考訳): 無人航空機(UAV)は、リアルタイムの空中映像解析を可能にすることで、災害時の緊急対応においてますます重要になっている。
UAVで利用可能な計算資源が限られているため、大規模モデルはリアルタイム解析のために独立して実行することはできない。
この課題を克服するために,UAVプラットフォーム上でのリアルタイムの山火事モニタリングと火災源検出のための軽量で効率的な2段階フレームワークを提案する。
具体的には、ステージ1では、フレーム圧縮技術を用いて冗長なビデオクリップを識別・破棄し、計算コストを削減するためにポリシーネットワークを利用する。
さらに、逐次ポリシーネットワーク内の将来のフレーム情報を活用して予測精度を向上させるステーションポイント機構を導入する。
ステージ2では、フレームを「火」に分類すると、改良されたYOLOv8モデルを使用して火源をローカライズする。
FLAMEおよびHMDB51データセットを用いたステージ1法と、Fire & Smokeデータセットを用いたステージ2法の評価を行った。
実験結果から,本手法はステージ1の分類精度を維持しながら計算コストを大幅に削減し,ステージ2の予測時間に類似した検出精度をベースライン法と比較した。
関連論文リスト
- Self Forcing: Bridging the Train-Test Gap in Autoregressive Video Diffusion [70.4360995984905]
本稿では,自己回帰ビデオ拡散モデルのための新しい訓練パラダイムであるSelf Forcingを紹介する。
露光バイアスの長年の問題に対処し、地道的な文脈で訓練されたモデルは、自身の不完全な出力で条件付けられたシーケンスを生成する必要がある。
論文 参考訳(メタデータ) (2025-06-09T17:59:55Z) - Detecting Wildfire Flame and Smoke through Edge Computing using Transfer Learning Enhanced Deep Learning Models [7.222438368943405]
本研究は、山火事の煙や炎を識別する対象検出器の性能を高める上で、トランスファーラーニング(TL)の重要性を裏付けるものである。
本稿では,D-Fire あるいは FASDD を初期目標データセットとして,AFSE をその後の段階として利用する2段階の TL 手法について検討する。
微調整により、TLは検出精度を大幅に向上し、平均平均精度(mAP@0.5)は79.2%まで向上し、トレーニング時間を短縮し、モデルの一般化性を高める。
論文 参考訳(メタデータ) (2025-01-15T08:04:44Z) - Efficient Diffusion as Low Light Enhancer [63.789138528062225]
RATR(Reflectance-Aware Trajectory Refinement)は、イメージの反射成分を用いて教師の軌跡を洗練するための、シンプルで効果的なモジュールである。
textbfReDDiT (textbfDistilled textbfTrajectory) は低照度画像強調(LLIE)に適した効率的で柔軟な蒸留フレームワークである。
論文 参考訳(メタデータ) (2024-10-16T08:07:18Z) - Streamlining Forest Wildfire Surveillance: AI-Enhanced UAVs Utilizing the FLAME Aerial Video Dataset for Lightweight and Efficient Monitoring [4.303063757163241]
本研究では,災害対応シナリオにおけるリアルタイムデータ処理の必要性を認識し,航空映像理解のための軽量かつ効率的なアプローチを提案する。
提案手法は、ポリシーネットワークを介してビデオ内の冗長部分を識別し、フレーム圧縮技術を用いて余分な情報を除去する。
ベースラインと比較して,提案手法は計算コストを13倍以上削減し,精度を3$%向上させる。
論文 参考訳(メタデータ) (2024-08-31T17:26:53Z) - Efficient One-stage Video Object Detection by Exploiting Temporal
Consistency [35.16197118579414]
1段検出器は、画像データ上の従来の2段検出器と比較して、競争精度と速度の速さを達成している。
本稿では,まず,ビデオ物体検出に一段検出器を用いる際の計算ボトルネックを解析する。
本稿では,計算ボトルネックに対処し,効率的なワンステージVODを実現するための,シンプルで効率的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-14T15:32:07Z) - Hardware Acceleration for Real-Time Wildfire Detection Onboard Drone
Networks [6.313148708539912]
遠隔地や森林地帯での山火事の検出は 破壊と生態系の保全を 最小化するのに不可欠です
ドローンは、高度な撮像技術を備えた、リモートで困難な地形へのアジャイルアクセスを提供する。
限られた計算とバッテリリソースは、画像分類モデルの実装と効率的な実装に困難をもたらす。
本稿では,リアルタイム画像分類と火災分断モデルの構築を目的とする。
論文 参考訳(メタデータ) (2024-01-16T04:16:46Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - Obscured Wildfire Flame Detection By Temporal Analysis of Smoke Patterns
Captured by Unmanned Aerial Systems [0.799536002595393]
本研究は,RGBカメラのみを搭載したドローンを用いて,隠された山火事をリアルタイムに検出する課題について論じる。
本稿では,ビデオシーケンス中の煙のパターンの時間的解析に基づくセマンティックセグメンテーションを用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-30T19:45:43Z) - TAPIR: Tracking Any Point with per-frame Initialization and temporal
Refinement [64.11385310305612]
本稿では,ビデオシーケンスを通して任意の物理面上の問合せ点を効果的に追跡する,TAP(Tracking Any Point)の新しいモデルを提案する。
提案手法では,(1)他のフレームの問合せ点に対する適切な候補点マッチングを独立に特定するマッチング段階と,(2)局所的相関に基づいてトラジェクトリと問合せの両方を更新する改良段階の2段階を用いる。
結果として得られたモデルは、DAVISにおける平均約20%の絶対平均ジャカード(AJ)改善によって示されるように、TAP-Vidベンチマークにおける大きなマージンで、すべてのベースライン手法を上回ります。
論文 参考訳(メタデータ) (2023-06-14T17:07:51Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - ETAD: A Unified Framework for Efficient Temporal Action Detection [70.21104995731085]
時間的行動検出(TAD)のようなトリミングされていないビデオ理解は、しばしば計算資源に対する膨大な需要の苦痛に悩まされる。
我々は、効率的なエンド・ツー・エンドの時間的行動検出(ETAD)のための統合されたフレームワークを構築している。
ETADはTHUMOS-14とActivityNet-1.3の両方で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-05-14T21:16:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。