論文の概要: Efficacy of Temporal Fusion Transformers for Runoff Simulation
- arxiv url: http://arxiv.org/abs/2506.20831v1
- Date: Wed, 25 Jun 2025 20:58:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.887474
- Title: Efficacy of Temporal Fusion Transformers for Runoff Simulation
- Title(参考訳): 流出シミュレーションにおけるテンポラル核融合変圧器の有効性
- Authors: Sinan Rasiya Koya, Tirthankar Roy,
- Abstract要約: 降雨・流出モデルにおけるLSTM(Long Short-Term Memory)ネットワーク上でのTFT(Temporal Fusion Transformer)の強度について検討する。
TFTはLSTMをわずかに上回り、特にハイドログラフの中間部とピークをシミュレートする。
説明可能なAI技術であるTFTは、重要な動的変数と静的変数を特定し、貴重な科学的洞察を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Combining attention with recurrence has shown to be valuable in sequence modeling, including hydrological predictions. Here, we explore the strength of Temporal Fusion Transformers (TFTs) over Long Short-Term Memory (LSTM) networks in rainfall-runoff modeling. We train ten randomly initialized models, TFT and LSTM, for 531 CAMELS catchments in the US. We repeat the experiment with five subsets of the Caravan dataset, each representing catchments in the US, Australia, Brazil, Great Britain, and Chile. Then, the performance of the models, their variability regarding the catchment attributes, and the difference according to the datasets are assessed. Our findings show that TFT slightly outperforms LSTM, especially in simulating the midsection and peak of hydrographs. Furthermore, we show the ability of TFT to handle longer sequences and why it can be a better candidate for higher or larger catchments. Being an explainable AI technique, TFT identifies the key dynamic and static variables, providing valuable scientific insights. However, both TFT and LSTM exhibit a considerable drop in performance with the Caravan dataset, indicating possible data quality issues. Overall, the study highlights the potential of TFT in improving hydrological modeling and understanding.
- Abstract(参考訳): 注意と再発の組合せは、水文学的な予測を含むシーケンスモデリングにおいて重要であることが示されている。
本稿では,降雨・流出モデルにおける長期記憶(LSTM)ネットワーク上でのTFTの強度について検討する。
TFTとLSTMの10種類のランダム初期化モデルを米国内で531個のCAMELS漁獲用に訓練する。
実験は、Caravanデータセットの5つのサブセットで繰り返し行われ、それぞれ米国、オーストラリア、ブラジル、イギリス、チリの漁獲量を表す。
そして、モデルの性能、捕集属性に関する変数、およびデータセットによる差を評価する。
以上の結果より, TFTはLSTMよりやや優れており, 特に中切片とピークのシミュレートに優れていた。
さらに,TFTがより長いシーケンスを処理可能であること,また,TFTがより高頻度あるいは大容量なキャッチメントの候補として適している理由を示す。
説明可能なAI技術であるTFTは、重要な動的変数と静的変数を特定し、貴重な科学的洞察を提供する。
しかしながら、TFTとLSTMのどちらも、Caravanデータセットによるパフォーマンスの大幅な低下を示し、データ品質の問題の可能性を示している。
全体として、この研究は、水文学モデリングと理解の改善におけるTFTの可能性を強調している。
関連論文リスト
- Massive Supervised Fine-tuning Experiments Reveal How Data, Layer, and Training Factors Shape LLM Alignment Quality [10.74213785908381]
Supervised Fine-tuning (SFT) は、大きな言語モデルを人間の指示や値に合わせるための重要なステップである。
コード生成、数学的推論、汎用ドメインタスクなど、さまざまなデータセットに基づいて、幅広いベースモデルをトレーニングしました。
我々は、これらの1000以上のSFTモデルとベンチマーク結果をリリースし、さらなる研究を加速する。
論文 参考訳(メタデータ) (2025-06-17T16:13:15Z) - tsGT: Stochastic Time Series Modeling With Transformer [0.12905935507312413]
本稿では,汎用トランスアーキテクチャ上に構築された時系列モデルであるtsGTを紹介する。
tsGT は MAD と RMSE の最先端モデルより優れており、QL と CRPS のピアよりも 4 つの一般的なデータセットで優れていることを示す。
論文 参考訳(メタデータ) (2024-03-08T22:59:41Z) - Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting [46.63798583414426]
時系列予測(LTSF)は時系列分析において重要なフロンティアである。
本研究は, 分析的および実証的な証拠から, 分解が過剰なモデルインフレーションを包含する鍵であることを実証する。
興味深いことに、時系列データの本質的なダイナミクスに分解を合わせることで、提案モデルは既存のベンチマークより優れている。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - Temporal Fusion Transformers for Streamflow Prediction: Value of
Combining Attention with Recurrence [0.0]
この研究は、繰り返しと注意を組み合わせることで、ストリームフロー予測を改善することができるという仮説をテストする。
我々はこれら2つの側面を組み合わせたTFT(Temporal Fusion Transformer)アーキテクチャを構築した。
その結果,TFT はストリームフロー予測のために LSTM と Transformer が設定した性能ベンチマークをはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2023-05-21T03:58:16Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Transformers with Learnable Activation Functions [63.98696070245065]
我々は、Rational Activation Function (RAF) を用いて、入力データに基づいてトレーニング中の最適なアクティベーション関数を学習する。
RAFは、学習されたアクティベーション関数に従って事前学習されたモデルを分析し、解釈するための新しい研究方向を開く。
論文 参考訳(メタデータ) (2022-08-30T09:47:31Z) - Predicting the temporal dynamics of turbulent channels through deep
learning [0.0]
最小乱流チャネル流の時間的進化を再現するニューラルネットワークの能力を評価することを目的としている。
長期記憶(LSTM)ネットワークとクープマンベースのフレームワーク(KNF)は、最小チャネルフローモードの時間ダイナミクスを予測するために訓練される。
論文 参考訳(メタデータ) (2022-03-02T09:31:03Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。