論文の概要: Wildfire Forecasting with Satellite Images and Deep Generative Model
- arxiv url: http://arxiv.org/abs/2208.09411v2
- Date: Mon, 22 Aug 2022 13:30:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-23 10:34:06.809092
- Title: Wildfire Forecasting with Satellite Images and Deep Generative Model
- Title(参考訳): 衛星画像と深部生成モデルによる山火事予報
- Authors: Thai-Nam Hoang and Sang Truong and Chris Schmidt
- Abstract要約: 我々は、未来における火災がどのように振る舞うかを予想するビデオとして、一連の山火事の画像を使用します。
潜在空間で動的に駆動される新しい時間モデルを導入する。
結果は様々なベンチマークモデルに比較される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Wildfire forecasting has been one of the most critical tasks that humanities
want to thrive. It plays a vital role in protecting human life. Wildfire
prediction, on the other hand, is difficult because of its stochastic and
chaotic properties. We tackled the problem by interpreting a series of wildfire
images as a video and used it to anticipate how the fire would behave in the
future. However, creating video prediction models that account for the inherent
uncertainty of the future is challenging. The bulk of published attempts is
based on stochastic image-autoregressive recurrent networks, which raises
various performance and application difficulties, such as computational cost
and limited efficiency on massive datasets. Another possibility is to use
entirely latent temporal models that combine frame synthesis and temporal
dynamics. However, due to design and training issues, no such model for
stochastic video prediction has yet been proposed in the literature. This paper
addresses these issues by introducing a novel stochastic temporal model whose
dynamics are driven in a latent space. It naturally predicts video dynamics by
allowing our lighter, more interpretable latent model to beat previous
state-of-the-art approaches on the GOES-16 dataset. Results will be compared
towards various benchmarking models.
- Abstract(参考訳): 森林火災の予報は、人文科学が成長させたい最も重要な課題の1つだ。
人間の生命を守る上で重要な役割を担っている。
一方,野生火災の予測は,その確率的・カオス的性質から困難である。
私たちは、一連のワイルドファイア画像をビデオとして解釈し、将来の火災がどのように振る舞うかを予測して、この問題に取り組みました。
しかし,将来的な不確実性を考慮した映像予測モデルの作成は困難である。
公表された試みの大部分は、確率的イメージ自動回帰リカレントネットワークに基づいており、計算コストや大規模なデータセットの限られた効率など、さまざまなパフォーマンスとアプリケーションの困難を生じさせる。
もう1つの可能性は、フレーム合成と時間力学を組み合わせた完全に潜時モデルを使用することである。
しかし, 設計・訓練上の問題から, 確率的映像予測のモデルはまだ提案されていない。
本稿では,動的に潜在空間で駆動される新しい確率時間モデルを導入することにより,これらの問題に対処する。
GOES-16データセットに対する従来の最先端のアプローチを、より軽く解釈しやすくすることで、ビデオのダイナミクスを自然に予測する。
結果は様々なベンチマークモデルで比較される。
関連論文リスト
- GaussianPrediction: Dynamic 3D Gaussian Prediction for Motion Extrapolation and Free View Synthesis [71.24791230358065]
動的シーンモデリングと将来のシナリオ合成により,3次元ガウス表現を実現する新しいフレームワークを提案する。
GaussianPredictionは、ダイナミックなシーンのビデオ観察を使用して、あらゆる視点から将来の状態を予測できる。
本フレームワークは,合成データセットと実世界のデータセットの両方で優れた性能を示し,将来の環境の予測とレンダリングの有効性を示す。
論文 参考訳(メタデータ) (2024-05-30T06:47:55Z) - State-space Decomposition Model for Video Prediction Considering Long-term Motion Trend [3.910356300831074]
本稿では,全体の映像フレーム生成を決定論的外観予測と動き予測に分解する状態空間分解ビデオ予測モデルを提案する。
条件付きフレームから長期動作傾向を推定し,条件付きフレームとの高整合性を示す将来のフレームの生成を導く。
論文 参考訳(メタデータ) (2024-04-17T17:19:48Z) - Predicting Long-horizon Futures by Conditioning on Geometry and Time [49.86180975196375]
我々は,過去を前提とした将来のセンサ観測の課題を探求する。
マルチモーダリティを扱える画像拡散モデルの大規模事前学習を活用する。
我々は、屋内と屋外のシーンにまたがる多様なビデオのセットについて、ビデオ予測のためのベンチマークを作成する。
論文 参考訳(メタデータ) (2024-04-17T16:56:31Z) - STDiff: Spatio-temporal Diffusion for Continuous Stochastic Video
Prediction [20.701792842768747]
時間領域上に無限次元の潜伏変数を持つ新しい映像予測モデルを提案する。
我々のモデルは、時間的連続予測、すなわち教師なしの方法で、任意に高いフレームレートで予測することができる。
論文 参考訳(メタデータ) (2023-12-11T16:12:43Z) - HARP: Autoregressive Latent Video Prediction with High-Fidelity Image
Generator [90.74663948713615]
我々は,高忠実度未来のフレームを予測可能な自己回帰遅延映像予測モデルを訓練する。
既存のモデルに最小限の修正を加えて高解像度(256x256)ビデオを作成する。
論文 参考訳(メタデータ) (2022-09-15T08:41:57Z) - Conditioned Human Trajectory Prediction using Iterative Attention Blocks [70.36888514074022]
本研究では,都市環境における歩行者位置予測を目的とした,簡易かつ効果的な歩行者軌道予測モデルを提案する。
我々のモデルは、複数のアテンションブロックとトランスフォーマーを反復的に実行できるニューラルネットワークアーキテクチャである。
ソーシャルマスク, 動的モデル, ソーシャルプーリング層, 複雑なグラフのような構造を明示的に導入することなく, SoTAモデルと同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T07:49:48Z) - FitVid: Overfitting in Pixel-Level Video Prediction [117.59339756506142]
われわれはFitVidという新しいアーキテクチャを導入し、一般的なベンチマークに厳しいオーバーフィッティングを行えるようにした。
FitVidは、4つの異なるメトリクスで4つの異なるビデオ予測ベンチマークで現在の最先端モデルを上回っている。
論文 参考訳(メタデータ) (2021-06-24T17:20:21Z) - Future Frame Prediction for Robot-assisted Surgery [57.18185972461453]
本稿では,ロボット手術用ビデオシーケンスにおけるフレーム予測のためのtpg-vaeモデルを提案する。
コンテンツ配信に加えて、私たちのモデルは、手術ツールの小さな動きを処理するために斬新な運動分布を学習します。
論文 参考訳(メタデータ) (2021-03-18T15:12:06Z) - Future Frame Prediction of a Video Sequence [5.660207256468971]
将来の出来事を予測し、予測し、推論する能力は知性の本質である。
将来の出来事を予測し、予測し、推論する能力は知性の本質である。
論文 参考訳(メタデータ) (2020-08-31T15:31:02Z) - Stochastic Latent Residual Video Prediction [0.0]
本稿では,残差更新規則により動的に潜在空間に支配される新しい時間モデルを提案する。
ビデオのダイナミックスを自然にモデル化し、よりシンプルで解釈しやすく、潜在的なモデルによって、挑戦的なデータセットに関する最先端の手法を上回ります。
論文 参考訳(メタデータ) (2020-02-21T10:44:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。