論文の概要: FireSentry: A Multi-Modal Spatio-temporal Benchmark Dataset for Fine-Grained Wildfire Spread Forecasting
- arxiv url: http://arxiv.org/abs/2512.03369v1
- Date: Wed, 03 Dec 2025 02:02:47 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:16:42.685388
- Title: FireSentry: A Multi-Modal Spatio-temporal Benchmark Dataset for Fine-Grained Wildfire Spread Forecasting
- Title(参考訳): FireSentry: 微粒Wildfireスプレッド予測のためのマルチモーダル時空間ベンチマークデータセット
- Authors: Nan Zhou, Huandong Wang, Jiahao Li, Han Li, Yali Song, Qiuhua Wang, Yong Li, Xinlei Chen,
- Abstract要約: 本稿では,サブメーター空間とサブ秒時間分解能を特徴とする地域規模のマルチモーダル山火事データセットFireSentryを提案する。
FireSentryは、可視および赤外線のビデオストリーム、その場での環境測定、手動で検証されたファイアマスクを提供する。
FireSentry上に構築され、物理に基づく、データ駆動、生成モデルを含む包括的なベンチマークを構築します。
- 参考スコア(独自算出の注目度): 41.82363110982653
- License:
- Abstract: Fine-grained wildfire spread prediction is crucial for enhancing emergency response efficacy and decision-making precision. However, existing research predominantly focuses on coarse spatiotemporal scales and relies on low-resolution satellite data, capturing only macroscopic fire states while fundamentally constraining high-precision localized fire dynamics modeling capabilities. To bridge this gap, we present FireSentry, a provincial-scale multi-modal wildfire dataset characterized by sub-meter spatial and sub-second temporal resolution. Collected using synchronized UAV platforms, FireSentry provides visible and infrared video streams, in-situ environmental measurements, and manually validated fire masks. Building on FireSentry, we establish a comprehensive benchmark encompassing physics-based, data-driven, and generative models, revealing the limitations of existing mask-only approaches. Our analysis proposes FiReDiff, a novel dual-modality paradigm that first predicts future video sequences in the infrared modality, and then precisely segments fire masks in the mask modality based on the generated dynamics. FiReDiff achieves state-of-the-art performance, with video quality gains of 39.2% in PSNR, 36.1% in SSIM, 50.0% in LPIPS, 29.4% in FVD, and mask accuracy gains of 3.3% in AUPRC, 59.1% in F1 score, 42.9% in IoU, and 62.5% in MSE when applied to generative models. The FireSentry benchmark dataset and FiReDiff paradigm collectively advance fine-grained wildfire forecasting and dynamic disaster simulation. The processed benchmark dataset is publicly available at: https://github.com/Munan222/FireSentry-Benchmark-Dataset.
- Abstract(参考訳): きめ細かい山火事の拡散予測は、緊急対応効果と意思決定精度を高めるために不可欠である。
しかし、既存の研究は主に粗い時空間スケールに焦点をあて、低解像度の衛星データに頼り、マクロな火災状態のみを捉えながら、高精度な局部火力モデリング能力を根本的に制限している。
このギャップを埋めるために、サブメーター空間とサブ秒時間分解能を特徴とする地方規模のマルチモーダル山火事データセットFireSentryを提示する。
同期UAVプラットフォームを使用して収集されたFireSentryは、可視および赤外線のビデオストリーム、その場での環境測定、手動で検証されたファイアマスクを提供する。
FireSentryをベースとして、物理ベース、データ駆動モデル、生成モデルを含む包括的なベンチマークを構築し、既存のマスクのみのアプローチの限界を明らかにします。
提案する2つのモードパラダイムは,まず赤外線モードにおける将来の映像シーケンスを予測し,次に生成したダイナミクスに基づいてマスクモード内のファイアマスクを正確にセグメント化する。
FiReDiffは、PSNRが39.2%、SSIMが36.1%、LPIPSが50.0%、FVDが29.4%、マスク精度が3.3%、F1が59.1%、IoUが42.9%、MSEが62.5%という最先端のパフォーマンスを達成した。
FireSentryベンチマークデータセットとFiReDiffパラダイムは、きめ細かい山火事予測と動的災害シミュレーションを総合的に進めている。
処理されたベンチマークデータセットは、https://github.com/Munan222/FireSentry-Benchmark-Datasetで公開されている。
関連論文リスト
- PyroFocus: A Deep Learning Approach to Real-Time Wildfire Detection in Multispectral Remote Sensing Imagery [0.0]
迅速かつ正確な山火事検出は、緊急対応と環境管理に不可欠である。
空中飛行と宇宙飛行のミッションでは、リアルタイムアルゴリズムは火災、活動的な火災、および発射後の条件を区別しなければならない。
火の分類を行い,火の放射力(FRP)レグレッションやセグメンテーションを施した2段パイプラインであるPyroFocusを導入する。
論文 参考訳(メタデータ) (2025-12-02T21:59:45Z) - Agentic World Modeling for 6G: Near-Real-Time Generative State-Space Reasoning [70.56067503630486]
第6世代(6G)インテリジェンスは、流動的なトークン予測ではなく、想像と選択の能力を校正している、と我々は主張する。
We showed that WM-MS3M cuts mean absolute error (MAE) by 1.69% vs MS3M with 32% less parameters and similar latency, and achieve a 35-80% lower root mean squared error (RMSE) than attention/hybrid baselines with 2.3-4.1x faster inference。
論文 参考訳(メタデータ) (2025-11-04T17:22:22Z) - Two-Stage Framework for Efficient UAV-Based Wildfire Video Analysis with Adaptive Compression and Fire Source Detection [4.796400107449626]
UAVプラットフォーム上でのリアルタイムの山火事モニタリングと火災源検出のためのフレームワークを提案する。
特にステージ1では、冗長なビデオクリップを識別・破棄するためにポリシーネットワークを使用します。
ステージ2では、フレームを「火」に分類すると、改良されたYOLOv8モデルを使用して火源をローカライズする。
論文 参考訳(メタデータ) (2025-08-22T18:27:31Z) - Output Scaling: YingLong-Delayed Chain of Thought in a Large Pretrained Time Series Forecasting Model [55.25659103706409]
このフレームワークは,設計した基盤モデルであるYingLongの最先端性能を実現する。
YingLongは、マスク付きトークンリカバリによってトレーニングされた非因果的双方向アテンションエンコーダのみのトランスフォーマーである。
我々は、6Mから3Mパラメータの4つの基礎モデルをリリースし、ゼロショットタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2025-05-20T14:31:06Z) - Detecting Wildfire Flame and Smoke through Edge Computing using Transfer Learning Enhanced Deep Learning Models [7.222438368943405]
本研究は、山火事の煙や炎を識別する対象検出器の性能を高める上で、トランスファーラーニング(TL)の重要性を裏付けるものである。
本稿では,D-Fire あるいは FASDD を初期目標データセットとして,AFSE をその後の段階として利用する2段階の TL 手法について検討する。
微調整により、TLは検出精度を大幅に向上し、平均平均精度(mAP@0.5)は79.2%まで向上し、トレーニング時間を短縮し、モデルの一般化性を高める。
論文 参考訳(メタデータ) (2025-01-15T08:04:44Z) - Fire-Image-DenseNet (FIDN) for predicting wildfire burnt area using remote sensing data [15.516417504988313]
深層学習に基づく予測モデルFire-Image-DenseNet(FIDN)を開発した。
FIDNは、山火事の環境および気象要因に関する、ほぼリアルタイムおよび再分析データから得られた空間的特徴を用いる。
平均二乗誤差 (MSE) は, 細胞オートマトン (CA) と最小走行時間 (MTT) に基づく予測モデルよりも約82%, 67%低い値を示した。
論文 参考訳(メタデータ) (2024-12-02T11:35:31Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - Obscured Wildfire Flame Detection By Temporal Analysis of Smoke Patterns
Captured by Unmanned Aerial Systems [0.799536002595393]
本研究は,RGBカメラのみを搭載したドローンを用いて,隠された山火事をリアルタイムに検出する課題について論じる。
本稿では,ビデオシーケンス中の煙のパターンの時間的解析に基づくセマンティックセグメンテーションを用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-30T19:45:43Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。