論文の概要: Transfer learning to improve streamflow forecasts in data sparse regions
- arxiv url: http://arxiv.org/abs/2112.03088v1
- Date: Mon, 6 Dec 2021 14:52:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 21:00:38.774076
- Title: Transfer learning to improve streamflow forecasts in data sparse regions
- Title(参考訳): データスパース領域における流れ予測改善のための伝達学習
- Authors: Roland Oruche, Lisa Egede, Tracy Baker, Fearghal O'Donncha
- Abstract要約: 本研究では,データスパース領域におけるストリームフロー予測の一般化性能向上のために,微調整およびパラメータ転送による伝達学習(TL)の方法論について検討する。
本稿では,Long Short-Term Memory(LSTM)という形式で,十分に大きなソースドメインデータセットに適合する標準のリカレントニューラルネットワークを提案する。
本稿では,モデルの空間的および時間的成分を分離し,モデルを一般化する訓練を行うことにより,水文学応用のための伝達学習手法を実装する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective water resource management requires information on water
availability, both in terms of quality and quantity, spatially and temporally.
In this paper, we study the methodology behind Transfer Learning (TL) through
fine-tuning and parameter transferring for better generalization performance of
streamflow prediction in data-sparse regions. We propose a standard recurrent
neural network in the form of Long Short-Term Memory (LSTM) to fit on a
sufficiently large source domain dataset and repurpose the learned weights to a
significantly smaller, yet similar target domain datasets. We present a
methodology to implement transfer learning approaches for spatiotemporal
applications by separating the spatial and temporal components of the model and
training the model to generalize based on categorical datasets representing
spatial variability. The framework is developed on a rich benchmark dataset
from the US and evaluated on a smaller dataset collected by The Nature
Conservancy in Kenya. The LSTM model exhibits generalization performance
through our TL technique. Results from this current experiment demonstrate the
effective predictive skill of forecasting streamflow responses when knowledge
transferring and static descriptors are used to improve hydrologic model
generalization in data-sparse regions.
- Abstract(参考訳): 効果的な水資源管理には、品質と量の両方において、空間的および時間的に水可用性に関する情報が必要である。
本稿では,データスパース領域におけるストリームフロー予測の一般化性能向上を目的とした,微調整とパラメータ転送による伝達学習(TL)の方法論について検討する。
本稿では,十分に大きなソースドメインデータセットに適合し,学習重みをかなり小さく,かつ類似したターゲットドメインデータセットに再利用するための,lstm(long short-term memory)という形式での標準リカレントニューラルネットワークを提案する。
本稿では,空間的および時間的要素を分離し,空間的変動を表すカテゴリー的データセットに基づいてモデルを一般化するよう訓練することにより,時空間応用のための伝達学習手法を提案する。
このフレームワークは米国のリッチなベンチマークデータセットで開発され、ケニアのnature conservancyが収集したより小さなデータセットで評価される。
LSTMモデルは我々のTL技術による一般化性能を示す。
本実験の結果から,データスパース領域における水文モデル一般化を改善するために,知識伝達と静的ディスクリプタを用いた場合のストリームフロー応答予測の効果的な予測技術が得られた。
関連論文リスト
- Hierarchically Disentangled Recurrent Network for Factorizing System Dynamics of Multi-scale Systems [4.634606500665259]
マルチスケールプロセスのモデリングのための知識誘導機械学習(KGML)フレームワークを提案する。
本研究では,水文学における流れ予測の文脈におけるその性能について検討する。
論文 参考訳(メタデータ) (2024-07-29T16:25:43Z) - Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - TPLLM: A Traffic Prediction Framework Based on Pretrained Large Language Models [27.306180426294784]
大規模言語モデル(LLM)を利用した新しい交通予測フレームワークであるTPLLMを紹介する。
本フレームワークでは,Lonal Neural Networks (LoCNNs) に基づくシーケンス埋め込み層と,Graph Contemporalal Networks (GCNs) に基づくグラフ埋め込み層を構築し,シーケンスの特徴と空間的特徴を抽出する。
実世界の2つのデータセットの実験では、フルサンプルと数ショットの予測シナリオの両方で、満足できるパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-03-04T17:08:57Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Diffusion Generative Flow Samplers: Improving learning signals through
partial trajectory optimization [87.21285093582446]
Diffusion Generative Flow Samplers (DGFS) はサンプルベースのフレームワークであり、学習プロセスを短い部分的軌道セグメントに分解することができる。
生成フローネットワーク(GFlowNets)のための理論から着想を得た。
論文 参考訳(メタデータ) (2023-10-04T09:39:05Z) - Improving the Transferability of Time Series Forecasting with
Decomposition Adaptation [14.09967794482993]
時系列予測では、十分なデータを得るのは難しいため、ニューラル予測モデルの性能が制限される。
データ不足の制限を軽減するため、SeDAN(Sequence Decomposition Adaptation Network)を設計する。
SeDANは、クロスドメインデータセットからの転送可能な知識を調整することで、ターゲットドメインでの予測性能を改善するための、新しい転送アーキテクチャである。
論文 参考訳(メタデータ) (2023-06-30T18:12:22Z) - Iterative self-transfer learning: A general methodology for response
time-history prediction based on small dataset [0.0]
本研究では,小さなデータセットに基づいてニューラルネットワークを学習するための反復的自己伝達学習手法を提案する。
提案手法は,小さなデータセットに対して,ほぼ一桁の精度でモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T18:48:04Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - How Well Do Sparse Imagenet Models Transfer? [75.98123173154605]
転送学習は、大規模な"上流"データセットで事前訓練されたモデルが、"下流"データセットで良い結果を得るために適応される古典的なパラダイムである。
本研究では、ImageNetデータセットでトレーニングされた畳み込みニューラルネットワーク(CNN)のコンテキストにおいて、この現象を詳細に調査する。
スパースモデルでは, 高空間であっても, 高密度モデルの転送性能にマッチしたり, 性能に優れることを示す。
論文 参考訳(メタデータ) (2021-11-26T11:58:51Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - The Utility of Feature Reuse: Transfer Learning in Data-Starved Regimes [6.419457653976053]
データ・スターベド・レシエーションを持つドメインに対する転送学習のユースケースについて述べる。
畳み込み特徴抽出と微調整の有効性を評価する。
我々はトランスファーラーニングがCNNアーキテクチャの性能を向上させることを結論付けている。
論文 参考訳(メタデータ) (2020-02-29T18:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。