論文の概要: Multi-Objective Model Selection for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2202.08485v1
- Date: Thu, 17 Feb 2022 07:40:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 15:34:29.421204
- Title: Multi-Objective Model Selection for Time Series Forecasting
- Title(参考訳): 時系列予測のための多目的モデル選択
- Authors: Oliver Borchert, David Salinas, Valentin Flunkert, Tim Januschowski,
Stephan G\"unnemann
- Abstract要約: 44のデータセット上で7つの古典的および6つのディープラーニング予測手法を評価する。
ベンチマーク評価を利用して、精度やレイテンシといった複数の目標を考慮した優れたデフォルトを学習します。
予測モデルから性能指標へのマッピングを学習することにより,提案手法のPARETOSELECTが正確にモデルを選択することができることを示す。
- 参考スコア(独自算出の注目度): 9.473440847947492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research on time series forecasting has predominantly focused on developing
methods that improve accuracy. However, other criteria such as training time or
latency are critical in many real-world applications. We therefore address the
question of how to choose an appropriate forecasting model for a given dataset
among the plethora of available forecasting methods when accuracy is only one
of many criteria. For this, our contributions are two-fold. First, we present a
comprehensive benchmark, evaluating 7 classical and 6 deep learning forecasting
methods on 44 heterogeneous, publicly available datasets. The benchmark code is
open-sourced along with evaluations and forecasts for all methods. These
evaluations enable us to answer open questions such as the amount of data
required for deep learning models to outperform classical ones. Second, we
leverage the benchmark evaluations to learn good defaults that consider
multiple objectives such as accuracy and latency. By learning a mapping from
forecasting models to performance metrics, we show that our method PARETOSELECT
is able to accurately select models from the Pareto front -- alleviating the
need to train or evaluate many forecasting models for model selection. To the
best of our knowledge, PARETOSELECT constitutes the first method to learn
default models in a multi-objective setting.
- Abstract(参考訳): 時系列予測の研究は、精度を向上させる方法の開発に重点を置いている。
しかし、トレーニング時間やレイテンシなどの他の基準は、多くの現実世界のアプリケーションで重要である。
そこで本研究では,与えられたデータセットの適切な予測モデルを選択する方法について,精度が多くの基準のうちの1つにすぎない場合,多くの予測手法の中から解決する。
これに対する私たちの貢献は2倍です。
まず,44個の不均質な公開データセットを用いた7つの古典的および6つのディープラーニング予測手法を評価する,包括的なベンチマークを提案する。
ベンチマークコードは、すべてのメソッドの評価と予測とともに、オープンソースである。
これらの評価により、従来のモデルよりも優れたディープラーニングモデルに必要なデータ量などのオープンな質問に答えることができる。
第2に、ベンチマーク評価を利用して、精度やレイテンシなど、複数の目的を考慮した良いデフォルトを学習します。
予測モデルからパフォーマンスメトリクスへのマッピングを学習することにより、私たちのメソッドPARETOSELECTがParetoフロントから正確にモデルを選択できることを示します。
我々の知る限り、PARETOSELECTは、マルチオブジェクト設定でデフォルトモデルを学習する最初の方法を構成する。
関連論文リスト
- Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト・イズ・キー (Context is Key) (CiK) は、時系列予測ベンチマークであり、様々な種類のテキストコンテキストと数値データをペアリングする。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
実験では、文脈情報の導入の重要性を強調し、LLMに基づく予測モデルを用いた場合の驚くべき性能を示すとともに、それらの重要な欠点を明らかにした。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - GIFT-Eval: A Benchmark For General Time Series Forecasting Model Evaluation [90.53485251837235]
時系列基礎モデルはゼロショット予測に優れ、明示的なトレーニングなしで多様なタスクを処理する。
GIFT-Evalは、多様なデータセットに対する評価を促進するための先駆的なベンチマークである。
GIFT-Evalには、144,000の時系列と17700万のデータポイントの23のデータセットが含まれている。
論文 参考訳(メタデータ) (2024-10-14T11:29:38Z) - A Two-Phase Recall-and-Select Framework for Fast Model Selection [13.385915962994806]
本稿では,2相モデル選択フレームワークを提案する。
これは、ベンチマークデータセット上でモデルのトレーニングパフォーマンスを活用することにより、堅牢なモデルを選択する効率を高めることを目的としている。
提案手法は,従来のベースライン法に比べて約3倍の速度でハイパフォーマンスモデルの選択を容易にすることが実証された。
論文 参考訳(メタデータ) (2024-03-28T14:44:44Z) - DsDm: Model-Aware Dataset Selection with Datamodels [81.01744199870043]
標準的なプラクティスは、データ品質という人間の考え方にマッチする例をフィルタリングすることです。
質の高い"データソースとの類似性に応じた選択は、ランダムに選択するデータに比べてパフォーマンスが向上しない(さらに傷つく)可能性がある。
我々のフレームワークは、データ品質に関する手作業による概念を回避し、学習プロセスがターゲットタスクの予測にデータポイントをトレーニングする方法を明確にモデル化する。
論文 参考訳(メタデータ) (2024-01-23T17:22:00Z) - Anchor Points: Benchmarking Models with Much Fewer Examples [88.02417913161356]
6つの人気のある言語分類ベンチマークでは、多数の点の正しいクラスに対するモデル信頼度はモデル間で強く相関している。
Anchor Point Selectionは,データセット全体にわたるモデル動作をキャプチャする,データセットの小さなサブセットを選択する手法である。
平均絶対誤差が低いデータセットの他のすべての点について、クラスごとの予測モデルを推定するために、いくつかのアンカーポイントを使用することができる。
論文 参考訳(メタデータ) (2023-09-14T17:45:51Z) - Post-Selection Confidence Bounds for Prediction Performance [2.28438857884398]
機械学習では、潜在的に多くの競合モデルから有望なモデルを選択し、その一般化性能を評価することが重要な課題である。
本稿では,評価セットの予測性能に基づいて選択された複数のモデルに対して,有効な低信頼境界を求めるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-24T13:28:43Z) - fETSmcs: Feature-based ETS model component selection [8.99236558175168]
シミュレーションデータに基づく分類器の訓練によるETSモデル選択の効率的な手法を提案し, 与えられた時系列に対する適切なモデル成分の予測を行う。
提案手法は,広く使用されている予測競合データセットM4に対して,点予測と予測間隔の両面から評価する。
論文 参考訳(メタデータ) (2022-06-26T13:52:43Z) - Model Selection for Time Series Forecasting: Empirical Analysis of
Different Estimators [1.6328866317851185]
時系列予測タスクにおけるモデル選択のための一連の推定手法を比較する。
その結果,最適解選択のための推定器の精度は低いことがわかった。
サンプルサイズなどのいくつかの要因は、推定器の相対的性能において重要である。
論文 参考訳(メタデータ) (2021-04-01T16:08:25Z) - Models, Pixels, and Rewards: Evaluating Design Trade-offs in Visual
Model-Based Reinforcement Learning [109.74041512359476]
視覚的MBRLアルゴリズムにおける予測モデルの設計決定について検討する。
潜在空間の使用など、しばしば重要と見なされる設計上の決定は、タスクのパフォーマンスにはほとんど影響しないことが分かりました。
我々は,この現象が探索とどのように関係しているか,および標準ベンチマークにおける下位スコーリングモデルのいくつかが,同じトレーニングデータでトレーニングされた場合のベストパフォーマンスモデルと同等の性能を発揮するかを示す。
論文 参考訳(メタデータ) (2020-12-08T18:03:21Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z) - For2For: Learning to forecast from forecasts [1.6752182911522522]
本稿では,標準予測手法と機械学習モデルを組み合わせた時系列予測フレームワークを提案する。
M4コンペティションデータセットでテストされたこのアプローチは、四半期シリーズの全ての応募よりも優れており、月次シリーズの受賞アルゴリズム以外のすべてのものよりも正確である。
論文 参考訳(メタデータ) (2020-01-14T03:06:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。