論文の概要: The data synergy effects of time-series deep learning models in
hydrology
- arxiv url: http://arxiv.org/abs/2101.01876v1
- Date: Wed, 6 Jan 2021 05:24:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 00:15:30.116519
- Title: The data synergy effects of time-series deep learning models in
hydrology
- Title(参考訳): 時系列深層学習モデルの水文学におけるデータ相乗効果
- Authors: Kuai Fang, Daniel Kifer, Kathryn Lawson, Dapeng Feng, Chaopeng Shen
- Abstract要約: 我々は、ビッグデータとディープラーニング(DL)の時代において、統一は地域化を著しく上回っていると論じる。
DLモデルの結果が、特性的に異なる地域からデータをプールする際に改善された、データシナジーと呼ばれる効果を強調します。
- 参考スコア(独自算出の注目度): 9.282656246381102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When fitting statistical models to variables in geoscientific disciplines
such as hydrology, it is a customary practice to regionalize - to divide a
large spatial domain into multiple regions and study each region separately -
instead of fitting a single model on the entire data (also known as
unification). Traditional wisdom in these fields suggests that models built for
each region separately will have higher performance because of homogeneity
within each region. However, by partitioning the training data, each model has
access to fewer data points and cannot learn from commonalities between
regions. Here, through two hydrologic examples (soil moisture and streamflow),
we argue that unification can often significantly outperform regionalization in
the era of big data and deep learning (DL). Common DL architectures, even
without bespoke customization, can automatically build models that benefit from
regional commonality while accurately learning region-specific differences. We
highlight an effect we call data synergy, where the results of the DL models
improved when data were pooled together from characteristically different
regions. In fact, the performance of the DL models benefited from more diverse
rather than more homogeneous training data. We hypothesize that DL models
automatically adjust their internal representations to identify commonalities
while also providing sufficient discriminatory information to the model. The
results here advocate for pooling together larger datasets, and suggest the
academic community should place greater emphasis on data sharing and
compilation.
- Abstract(参考訳): 水文学のような地球科学的分野の変数に統計モデルを適用する場合、大きな空間領域を複数の領域に分割し、データ全体(統一とも呼ばれる)に単一のモデルを適用する代わりに各領域を別々に研究することが慣例である。
これらの分野における伝統的な知恵は、各領域に別々に構築されたモデルは、各領域内の均質性のため、より高いパフォーマンスをもたらすことを示唆している。
しかし、トレーニングデータを分割することで、各モデルはより少ないデータポイントにアクセスでき、リージョン間の共通点から学べない。
ここでは,2つの水文学的な例(土壌水分と流水)を通して,ビッグデータとディープラーニング(DL)の時代において,統一が地域化を著しく上回っていることを論じる。
共通dlアーキテクチャは、個別のカスタマイズなしでも、地域固有の差異を正確に学習しながら、地域共通性から利益を得るモデルを自動的に構築することができる。
我々は、データシナジー(data synergy)と呼ばれる効果を強調し、特徴のある異なる領域からデータをプールすると、DLモデルの結果が改善された。
実際、DLモデルの性能は、均質なトレーニングデータよりも、より多様なデータから恩恵を受けている。
我々は、dlモデルがモデルに十分な識別情報を提供しながら、共通性を特定するために自動的に内部表現を調整することを仮定する。
この結果は、より大きなデータセットをまとめることを提案し、学術コミュニティはデータ共有とコンパイルにもっと重点を置くべきであることを示唆している。
関連論文リスト
- Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - SARN: Structurally-Aware Recurrent Network for Spatio-Temporal Disaggregation [8.636014676778682]
オープンデータは、通常プライバシーポリシーに従うために、しばしば空間的に集約される。しかし、粗い、異質な集約は、下流のAI/MLシステムに対する一貫性のある学習と統合を複雑にする。
本稿では,空間的注意層をGRU(Gated Recurrent Unit)モデルに統合したSARN(Structurely-Aware Recurrent Network)を提案する。
履歴学習データに制限のあるシナリオでは、ある都市変数に事前学習したモデルを、数百のサンプルのみを用いて、他の都市変数に対して微調整できることを示す。
論文 参考訳(メタデータ) (2023-06-09T21:01:29Z) - Federated Learning of Models Pre-Trained on Different Features with
Consensus Graphs [19.130197923214123]
プライベートデータセットと分散データセットで効果的なグローバルモデルを学ぶことは、機械学習においてますます重要な課題になりつつある。
本稿では,局所モデルから局所表現を抽出し,それらをグローバル表現に組み込んで予測性能を向上させる特徴融合手法を提案する。
本稿では,これらの問題に対する解決策を提示し,電力網や交通網などの時系列データを用いた実世界の応用例を示す。
論文 参考訳(メタデータ) (2023-06-02T02:24:27Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Knowledge is a Region in Weight Space for Fine-tuned Language Models [48.589822853418404]
異なるモデルの重み空間と下層の損失景観が相互に相互に相互に相互に相互に相互に相互に関連しているかを検討する。
同じデータセットで微調整された言語モデルが重み空間で厳密なクラスタを形成し、同じタスクから異なるデータセットで微調整されたモデルがより緩いクラスタを形成することを示す。
論文 参考訳(メタデータ) (2023-02-09T18:59:18Z) - FedSiam-DA: Dual-aggregated Federated Learning via Siamese Network under
Non-IID Data [21.95009868875851]
フェデレートされた学習は、データアイランドに対処できるが、実際のアプリケーションで不均一なデータでトレーニングすることは依然として困難である。
本稿では,新しい二重集約型コントラスト学習手法であるFedSiam-DAを提案する。
論文 参考訳(メタデータ) (2022-11-17T09:05:25Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Dataset Cartography: Mapping and Diagnosing Datasets with Training
Dynamics [118.75207687144817]
我々はデータセットを特徴付け、診断するモデルベースのツールであるData Mapsを紹介した。
私たちは、トレーニング中の個々のインスタンス上でのモデルの振る舞いという、ほとんど無視された情報のソースを活用しています。
以上の結果から,データ量から品質へのフォーカスの変化は,ロバストなモデルとアウト・オブ・ディストリビューションの一般化に繋がる可能性が示唆された。
論文 参考訳(メタデータ) (2020-09-22T20:19:41Z) - Meta-Learning for Few-Shot Land Cover Classification [3.8529010979482123]
分類タスクとセグメンテーションタスクにおけるモデル非依存メタラーニング(MAML)アルゴリズムの評価を行った。
数発のモデル適応は,正規勾配降下による事前学習よりも優れていた。
これは、メタラーニングによるモデル最適化が地球科学におけるタスクの恩恵をもたらすことを示唆している。
論文 参考訳(メタデータ) (2020-04-28T09:42:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。