論文の概要: Forecasting Early with Meta Learning
- arxiv url: http://arxiv.org/abs/2307.09796v1
- Date: Wed, 19 Jul 2023 07:30:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 15:07:27.966879
- Title: Forecasting Early with Meta Learning
- Title(参考訳): メタ学習による早期予測
- Authors: Shayan Jawed, Kiran Madhusudhanan, Vijaya Krishna Yalavarthi and Lars
Schmidt-Thieme
- Abstract要約: 本稿では,追加データセットからのサンプルを活用するメタ学習手法を考案し,対象データセットの補助タスクとして,逆学習を通じて時系列を拡大する学習を行う。
我々のモデル(FEML)は、異なるデータセットから異なる長さ入力の特徴を学習する共有畳み込みバックボーンを備えており、異なる出力長を予測するためのデータセット固有のヘッドを備えている。
- 参考スコア(独自算出の注目度): 4.750521042508541
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the early observation period of a time series, there might be only a few
historic observations available to learn a model. However, in cases where an
existing prior set of datasets is available, Meta learning methods can be
applicable. In this paper, we devise a Meta learning method that exploits
samples from additional datasets and learns to augment time series through
adversarial learning as an auxiliary task for the target dataset. Our model
(FEML), is equipped with a shared Convolutional backbone that learns features
for varying length inputs from different datasets and has dataset specific
heads to forecast for different output lengths. We show that FEML can meta
learn across datasets and by additionally learning on adversarial generated
samples as auxiliary samples for the target dataset, it can improve the
forecasting performance compared to single task learning, and various solutions
adapted from Joint learning, Multi-task learning and classic forecasting
baselines.
- Abstract(参考訳): 時系列の初期の観察期間では、モデルを学習するのに利用可能な歴史的な観測はわずかである。
しかし、既存のデータセットの事前セットが利用可能である場合、メタ学習の方法が適用できる。
本稿では,追加データセットからのサンプルを活用し,対象データセットの補助タスクとして,敵対的学習を通じて時系列の強化を学習するメタ学習手法を考案する。
我々のモデル(FEML)は、異なるデータセットから異なる長さ入力の特徴を学習する共有畳み込みバックボーンを備えており、異なる出力長を予測するためのデータセット固有のヘッドを備えている。
FEMLはデータセット間でメタラーニングが可能であり、また、ターゲットデータセットの補助サンプルとして逆生成サンプルを学習することにより、単一タスクラーニングよりも予測性能を向上し、ジョイントラーニング、マルチタスクラーニング、古典的な予測ベースラインから様々なソリューションを適用できることを示す。
関連論文リスト
- Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト・イズ・キー (Context is Key) (CiK) は、時系列予測ベンチマークであり、様々な種類のテキストコンテキストと数値データをペアリングする。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
実験では、文脈情報の導入の重要性を強調し、LLMに基づく予測モデルを用いた場合の驚くべき性能を示すとともに、それらの重要な欠点を明らかにした。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Metadata Matters for Time Series: Informative Forecasting with Transformers [70.38241681764738]
時系列予測のためのMetaTST(Metadata-informed Time Series Transformer)を提案する。
メタデータの非構造化の性質に取り組むため、MetaTSTは、事前に設計されたテンプレートによってそれらを自然言語に形式化する。
Transformerエンコーダは、メタデータ情報によるシーケンス表現を拡張するシリーズトークンとメタデータトークンの通信に使用される。
論文 参考訳(メタデータ) (2024-10-04T11:37:55Z) - Time Associated Meta Learning for Clinical Prediction [78.99422473394029]
本稿では,時間関連メタラーニング(TAML)手法を提案する。
タスク分割後のスパーシリティ問題に対処するため、TAMLは時間情報共有戦略を採用し、正のサンプル数を増やす。
複数の臨床データセットに対するTAMLの有効性を示す。
論文 参考訳(メタデータ) (2023-03-05T03:54:54Z) - Combining datasets to increase the number of samples and improve model
fitting [7.4771091238795595]
我々はImp(ComImp)に基づくコンバインドデータセットと呼ばれる新しいフレームワークを提案する。
さらに,PCA,PCA-ComImpを用いたComImpの変種を提案する。
提案手法は,より小さなデータセット上での予測モデルの精度を大幅に向上させることで,転送学習と幾らか類似していることが示唆された。
論文 参考訳(メタデータ) (2022-10-11T06:06:37Z) - Can Population-based Engagement Improve Personalisation? A Novel Dataset
and Experiments [21.12546768556595]
VLEは、公開されている科学ビデオ講義から抽出されたコンテンツとビデオベースの特徴からなる、新しいデータセットである。
実験結果から,新たに提案したVLEデータセットがコンテキストに依存しないエンゲージメント予測モデルの構築につながることが示唆された。
構築したモデルとパーソナライズアルゴリズムを組み合わせる実験は、教育推薦者によるコールドスタート問題に対処する上で有望な改善を示す。
論文 参考訳(メタデータ) (2022-06-22T15:53:24Z) - Few-Shot Forecasting of Time-Series with Heterogeneous Channels [4.635820333232681]
本研究では,時間的埋め込みを組み込んだ置換不変な深部集合ブロックからなるモデルを開発する。
実験を通して、我々のモデルはより単純なシナリオから実行されたベースラインよりも優れた一般化を提供することを示す。
論文 参考訳(メタデータ) (2022-04-07T14:02:15Z) - DiVA: Diverse Visual Feature Aggregation for Deep Metric Learning [83.48587570246231]
視覚的類似性は多くのコンピュータビジョンアプリケーションにおいて重要な役割を果たす。
ディープ・メトリック・ラーニング(DML)は、そのような類似性を学ぶための強力なフレームワークである。
我々は,概念的に異なるデータ関係を対象とする複数の補完学習タスクを提案し,研究する。
我々は、訓練信号を集約する単一モデルを学び、その結果、強力な一般化と最先端のパフォーマンスが得られる。
論文 参考訳(メタデータ) (2020-04-28T12:26:50Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z) - Meta-learning framework with applications to zero-shot time-series
forecasting [82.61728230984099]
この研究は幅広いメタラーニングフレームワークを使って肯定的な証拠を提供する。
残余接続はメタラーニング適応機構として機能する。
我々は、ソースTSデータセット上でニューラルネットワークをトレーニングし、異なるターゲットTSデータセット上で再トレーニングすることなくデプロイできることを示します。
論文 参考訳(メタデータ) (2020-02-07T16:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。