論文の概要: Transfer learning to improve streamflow forecasts in data sparse regions
- arxiv url: http://arxiv.org/abs/2112.03088v1
- Date: Mon, 6 Dec 2021 14:52:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 21:00:38.774076
- Title: Transfer learning to improve streamflow forecasts in data sparse regions
- Title(参考訳): データスパース領域における流れ予測改善のための伝達学習
- Authors: Roland Oruche, Lisa Egede, Tracy Baker, Fearghal O'Donncha
- Abstract要約: 本研究では,データスパース領域におけるストリームフロー予測の一般化性能向上のために,微調整およびパラメータ転送による伝達学習(TL)の方法論について検討する。
本稿では,Long Short-Term Memory(LSTM)という形式で,十分に大きなソースドメインデータセットに適合する標準のリカレントニューラルネットワークを提案する。
本稿では,モデルの空間的および時間的成分を分離し,モデルを一般化する訓練を行うことにより,水文学応用のための伝達学習手法を実装する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective water resource management requires information on water
availability, both in terms of quality and quantity, spatially and temporally.
In this paper, we study the methodology behind Transfer Learning (TL) through
fine-tuning and parameter transferring for better generalization performance of
streamflow prediction in data-sparse regions. We propose a standard recurrent
neural network in the form of Long Short-Term Memory (LSTM) to fit on a
sufficiently large source domain dataset and repurpose the learned weights to a
significantly smaller, yet similar target domain datasets. We present a
methodology to implement transfer learning approaches for spatiotemporal
applications by separating the spatial and temporal components of the model and
training the model to generalize based on categorical datasets representing
spatial variability. The framework is developed on a rich benchmark dataset
from the US and evaluated on a smaller dataset collected by The Nature
Conservancy in Kenya. The LSTM model exhibits generalization performance
through our TL technique. Results from this current experiment demonstrate the
effective predictive skill of forecasting streamflow responses when knowledge
transferring and static descriptors are used to improve hydrologic model
generalization in data-sparse regions.
- Abstract(参考訳): 効果的な水資源管理には、品質と量の両方において、空間的および時間的に水可用性に関する情報が必要である。
本稿では,データスパース領域におけるストリームフロー予測の一般化性能向上を目的とした,微調整とパラメータ転送による伝達学習(TL)の方法論について検討する。
本稿では,十分に大きなソースドメインデータセットに適合し,学習重みをかなり小さく,かつ類似したターゲットドメインデータセットに再利用するための,lstm(long short-term memory)という形式での標準リカレントニューラルネットワークを提案する。
本稿では,空間的および時間的要素を分離し,空間的変動を表すカテゴリー的データセットに基づいてモデルを一般化するよう訓練することにより,時空間応用のための伝達学習手法を提案する。
このフレームワークは米国のリッチなベンチマークデータセットで開発され、ケニアのnature conservancyが収集したより小さなデータセットで評価される。
LSTMモデルは我々のTL技術による一般化性能を示す。
本実験の結果から,データスパース領域における水文モデル一般化を改善するために,知識伝達と静的ディスクリプタを用いた場合のストリームフロー応答予測の効果的な予測技術が得られた。
関連論文リスト
- TPLLM: A Traffic Prediction Framework Based on Pretrained Large Language
Models [27.306180426294784]
大規模言語モデル(LLM)を利用した新しい交通予測フレームワークであるTPLLMを紹介する。
本フレームワークでは,Lonal Neural Networks (LoCNNs) に基づくシーケンス埋め込み層と,Graph Contemporalal Networks (GCNs) に基づくグラフ埋め込み層を構築し,シーケンスの特徴と空間的特徴を抽出する。
実世界の2つのデータセットの実験では、フルサンプルと数ショットの予測シナリオの両方で、満足できるパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-03-04T17:08:57Z) - Diffusion-based Neural Network Weights Generation [85.6725307453325]
データセット条件付き事前学習重み抽出による効率よく適応的な伝達学習手法を提案する。
具体的には、ニューラルネットワークの重みを再構築できる変分オートエンコーダを備えた潜時拡散モデルを用いる。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Generative Modeling with Phase Stochastic Bridges [52.919600985186996]
拡散モデル(DM)は、連続入力のための最先端の生成モデルを表す。
我々はtextbfphase space dynamics に基づく新しい生成モデリングフレームワークを提案する。
我々のフレームワークは、動的伝播の初期段階において、現実的なデータポイントを生成する能力を示す。
論文 参考訳(メタデータ) (2023-10-11T18:38:28Z) - Improving the Transferability of Time Series Forecasting with
Decomposition Adaptation [14.09967794482993]
時系列予測では、十分なデータを得るのは難しいため、ニューラル予測モデルの性能が制限される。
データ不足の制限を軽減するため、SeDAN(Sequence Decomposition Adaptation Network)を設計する。
SeDANは、クロスドメインデータセットからの転送可能な知識を調整することで、ターゲットドメインでの予測性能を改善するための、新しい転送アーキテクチャである。
論文 参考訳(メタデータ) (2023-06-30T18:12:22Z) - Iterative self-transfer learning: A general methodology for response
time-history prediction based on small dataset [0.0]
本研究では,小さなデータセットに基づいてニューラルネットワークを学習するための反復的自己伝達学習手法を提案する。
提案手法は,小さなデータセットに対して,ほぼ一桁の精度でモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T18:48:04Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - Temporal Convolution Domain Adaptation Learning for Crops Growth
Prediction [5.966652553573454]
我々は、限られた作物データを用いて、作物の成長曲線を予測するために、ドメイン適応学習に基づく革新的なネットワークアーキテクチャを構築した。
私たちは、時間的畳み込みフィルタをバックボーンとして使用し、ドメイン適応ネットワークアーキテクチャを構築しました。
その結果,提案した時間的畳み込みに基づくネットワークアーキテクチャは,精度だけでなく,モデルサイズや収束率においても,すべてのベンチマークより優れていた。
論文 参考訳(メタデータ) (2022-02-24T14:22:36Z) - How Well Do Sparse Imagenet Models Transfer? [75.98123173154605]
転送学習は、大規模な"上流"データセットで事前訓練されたモデルが、"下流"データセットで良い結果を得るために適応される古典的なパラダイムである。
本研究では、ImageNetデータセットでトレーニングされた畳み込みニューラルネットワーク(CNN)のコンテキストにおいて、この現象を詳細に調査する。
スパースモデルでは, 高空間であっても, 高密度モデルの転送性能にマッチしたり, 性能に優れることを示す。
論文 参考訳(メタデータ) (2021-11-26T11:58:51Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - The Utility of Feature Reuse: Transfer Learning in Data-Starved Regimes [6.419457653976053]
データ・スターベド・レシエーションを持つドメインに対する転送学習のユースケースについて述べる。
畳み込み特徴抽出と微調整の有効性を評価する。
我々はトランスファーラーニングがCNNアーキテクチャの性能を向上させることを結論付けている。
論文 参考訳(メタデータ) (2020-02-29T18:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。