論文の概要: U-Net with Hadamard Transform and DCT Latent Spaces for Next-day Wildfire Spread Prediction
- arxiv url: http://arxiv.org/abs/2602.11672v1
- Date: Thu, 12 Feb 2026 07:45:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.702288
- Title: U-Net with Hadamard Transform and DCT Latent Spaces for Next-day Wildfire Spread Prediction
- Title(参考訳): アダマール変換とDCT遅延空間を用いた次世代の山火事予測のためのU-Net
- Authors: Yingyi Luo, Shuaiang Rong, Adam Watts, Ahmet Enis Cetin,
- Abstract要約: 我々は、マルチモーダル衛星データを入力として利用し、翌日の山火事拡散予測のための軽量ツールを開発した。
ディープラーニングモデルは、Transform Domain Fusion UNetと呼ばれ、トレーニング可能なAdamard TransformとDisdisrete Cosine Transformレイヤを組み込んでいる。
提案手法は,軽量環境下での精度と効率のバランスを示す。
- 参考スコア(独自算出の注目度): 0.6999740786886536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We developed a lightweight and computationally efficient tool for next-day wildfire spread prediction using multimodal satellite data as input. The deep learning model, which we call Transform Domain Fusion UNet (TD-FusionUNet), incorporates trainable Hadamard Transform and Discrete Cosine Transform layers that apply two-dimensional transforms, enabling the network to capture essential "frequency" components in orthogonalized latent spaces. Additionally, we introduce custom preprocessing techniques, including random margin cropping and a Gaussian mixture model, to enrich the representation of the sparse pre-fire masks and enhance the model's generalization capability. The TD-FusionUNet is evaluated on two datasets which are the Next-Day Wildfire Spread dataset released by Google Research in 2023, and WildfireSpreadTS dataset. Our proposed TD-FusionUNet achieves an F1 score of 0.591 with 370k parameters, outperforming the UNet baseline using ResNet18 as the encoder reported in the WildfireSpreadTS dataset while using substantially fewer parameters. These results show that the proposed latent space fusion model balances accuracy and efficiency under a lightweight setting, making it suitable for real time wildfire prediction applications in resource limited environments.
- Abstract(参考訳): 我々は、マルチモーダル衛星データを入力として利用し、翌日の山火事拡散予測のための軽量で効率的なツールを開発した。
Transform Domain Fusion UNet (TD-FusionUNet)と呼ばれるディープラーニングモデルは、トレーニング可能なアダマール変換と離散コサイン変換を組み込んで、2次元変換を適用し、ネットワークが直交潜在空間において不可欠な「周波数」成分をキャプチャできるようにする。
さらに,ランダム・マージン・トリミングやガウス混合モデルなどのカスタム・プレプロセッシング技術を導入し,スパース・プレファイアマスクの表現を充実させ,モデルの一般化能力を高める。
TD-FusionUNetは、2023年にGoogle ResearchがリリースしたNext-Day Wildfire Spreadデータセットと、Wildfire SpreadTSデータセットの2つのデータセットで評価されている。
提案したTD-FusionUNetは370kパラメータのF1スコアを0.591で達成し,WildfireSpreadTSデータセットで報告されたエンコーダとしてResNet18を用いてUNetベースラインを上回った。
これらの結果から,提案した潜時空間融合モデルは,軽量環境下での精度と効率のバランスを保ち,資源限定環境における実時間山火事予測に適していることが示された。
関連論文リスト
- FireSentry: A Multi-Modal Spatio-temporal Benchmark Dataset for Fine-Grained Wildfire Spread Forecasting [41.82363110982653]
本稿では,サブメーター空間とサブ秒時間分解能を特徴とする地域規模のマルチモーダル山火事データセットFireSentryを提案する。
FireSentryは、可視および赤外線のビデオストリーム、その場での環境測定、手動で検証されたファイアマスクを提供する。
FireSentry上に構築され、物理に基づく、データ駆動、生成モデルを含む包括的なベンチマークを構築します。
論文 参考訳(メタデータ) (2025-12-03T02:02:47Z) - UniDiff: Parameter-Efficient Adaptation of Diffusion Models for Land Cover Classification with Multi-Modal Remotely Sensed Imagery and Sparse Annotations [3.588053519843616]
本稿では,1つのイメージネット予測拡散モデルを用いて,対象領域データのみを用いて複数の知覚モダリティに適応するパラメータ効率のフレームワークを提案する。
UniDiffは、FiLMベースのタイムステップ・モダリティ条件付け、パラメータの約5%のパラメータ効率適応、および擬似RGBアンカーを組み合わせることで、事前訓練された表現を保存し、破滅的な忘れを防止する。
論文 参考訳(メタデータ) (2025-11-29T00:57:53Z) - Detecting Wildfire Flame and Smoke through Edge Computing using Transfer Learning Enhanced Deep Learning Models [7.222438368943405]
本研究は、山火事の煙や炎を識別する対象検出器の性能を高める上で、トランスファーラーニング(TL)の重要性を裏付けるものである。
本稿では,D-Fire あるいは FASDD を初期目標データセットとして,AFSE をその後の段階として利用する2段階の TL 手法について検討する。
微調整により、TLは検出精度を大幅に向上し、平均平均精度(mAP@0.5)は79.2%まで向上し、トレーニング時間を短縮し、モデルの一般化性を高める。
論文 参考訳(メタデータ) (2025-01-15T08:04:44Z) - Dynamic Diffusion Transformer [67.13876021157887]
Diffusion Transformer (DiT) は優れた性能を示したが、かなりの計算コストに悩まされている。
本研究では,動的拡散変換器 (DyDiT) を提案する。
3%の微調整により,DiT-XLのFLOPを51%削減し,生成を1.73高速化し,ImageNet上でのFIDスコア2.07を達成する。
論文 参考訳(メタデータ) (2024-10-04T14:14:28Z) - FlatFusion: Delving into Details of Sparse Transformer-based Camera-LiDAR Fusion for Autonomous Driving [63.96049803915402]
多様なセンサーのモダリティからのデータの統合は、自律運転のシナリオにおいて一般的な方法論となっている。
効率的な点雲変換器の最近の進歩は、スパースフォーマットにおける情報統合の有効性を裏付けている。
本稿では,Transformer を用いた sparse cameraLiDAR 融合における設計選択を包括的に検討する。
論文 参考訳(メタデータ) (2024-08-13T11:46:32Z) - DSVT: Dynamic Sparse Voxel Transformer with Rotated Sets [95.84755169585492]
本研究では,屋外3次元知覚のためのシングルストライドウィンドウベースのボクセルトランスであるDynamic Sparse Voxel Transformer (DSVT)を提案する。
本モデルでは,3次元認識タスクを多岐にわたって行うことにより,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-01-15T09:31:58Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。