論文の概要: Principles and Algorithms for Forecasting Groups of Time Series:
Locality and Globality
- arxiv url: http://arxiv.org/abs/2008.00444v3
- Date: Fri, 26 Mar 2021 23:34:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 19:19:44.817148
- Title: Principles and Algorithms for Forecasting Groups of Time Series:
Locality and Globality
- Title(参考訳): 時系列グループ予測の原理とアルゴリズム:局所性とグローバル性
- Authors: Pablo Montero-Manso and Rob J Hyndman
- Abstract要約: 時系列の集合を局所的および大域的手法で予測する設定を定式化する。
グローバルモデルは以前考えられていたよりも幅広い問題に成功する可能性がある。
故意にこれらの原理から導かれるアルゴリズムは、精度が向上する。
- 参考スコア(独自算出の注目度): 0.5076419064097732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Forecasting groups of time series is of increasing practical importance, e.g.
forecasting the demand for multiple products offered by a retailer or server
loads within a data center. The local approach to this problem considers each
time series separately and fits a function or model to each series. The global
approach fits a single function to all series. For groups of similar time
series, global methods outperform the more established local methods. However,
recent results show good performance of global models even in heterogeneous
datasets. This suggests a more general applicability of global methods,
potentially leading to more accurate tools and new scenarios to study.
Formalizing the setting of forecasting a set of time series with local and
global methods, we provide the following contributions:
1) Global methods are not more restrictive than local methods, both can
produce the same forecasts without any assumptions about similarity of the
series. Global models can succeed in a wider range of problems than previously
thought.
2) Basic generalization bounds for local and global algorithms. The
complexity of local methods grows with the size of the set while it remains
constant for global methods. In large datasets, a global algorithm can afford
to be quite complex and still benefit from better generalization. These bounds
serve to clarify and support recent experimental results in the field, and
guide the design of new algorithms. For the class of autoregressive models,
this implies that global models can have much larger memory than local methods.
3) In an extensive empirical study, purposely naive algorithms derived from
these principles, such as global linear models or deep networks result in
superior accuracy.
In particular, global linear models can provide competitive accuracy with two
orders of magnitude fewer parameters than local methods.
- Abstract(参考訳): 時系列の予測グループは、例えば小売業者やデータセンター内のサーバ負荷によって提供される複数の製品の需要を予測するなど、実用的重要性が増している。
この問題に対する局所的なアプローチは各時系列を個別に考慮し、各時系列に関数やモデルを適用する。
グローバルアプローチは、すべてのシリーズに単一の関数に適合する。
類似した時系列の群では、グローバルメソッドはより確立されたローカルメソッドよりも優れている。
しかし、最近の結果は異種データセットにおいてもグローバルモデルの性能が良好であることを示している。
これにより、グローバルメソッドのより一般的な適用性が示唆され、より正確なツールと新しいシナリオが研究される可能性がある。
1)グローバルメソッドはローカルメソッドよりも制限的ではなく、どちらもシリーズの類似性を前提にせずに同じ予測を生成できる。
グローバルモデルは以前考えられていたよりも幅広い問題に成功する可能性がある。
2)局所的および大域的アルゴリズムの基本一般化境界
局所メソッドの複雑さは集合のサイズとともに増大するが、グローバルメソッドには一定である。
大規模なデータセットでは、グローバルアルゴリズムは非常に複雑で、より良い一般化の恩恵を受けることができる。
これらの境界は、この分野における最近の実験結果を明確にし、支援し、新しいアルゴリズムの設計を導くのに役立つ。
自己回帰モデルのクラスでは、グローバルモデルはローカルメソッドよりもはるかに大きなメモリを持つことができる。
3)大域的線形モデルや深層ネットワークなど,これらの原理から導出した客観的なナイーブなアルゴリズムは,精度に優れる。
特に、大域線形モデルは、局所的な手法よりも2桁少ないパラメータで競合精度を提供できる。
関連論文リスト
- A Global-Local Approximation Framework for Large-Scale Gaussian Process
Modeling [0.0]
本稿では,大規模ガウス過程(GP)モデリングのための新しいフレームワークを提案する。
近似構築にグローバルなアプローチを併用する。
TwinGPと呼ぶ我々のフレームワークの性能は、最先端のGPモデリング手法と同等かそれ以上である。
論文 参考訳(メタデータ) (2023-05-17T12:19:59Z) - $\texttt{FedBC}$: Calibrating Global and Local Models via Federated
Learning Beyond Consensus [66.62731854746856]
フェデレートラーニング(FL)では、デバイス全体にわたるモデル更新の集約を通じて、グローバルモデルを協調的に学習する目的は、ローカル情報を通じたパーソナライズという目標に反対する傾向にある。
本研究では,このトレードオフを多基準最適化により定量的にキャリブレーションする。
私たちは、$texttFedBC$が、スイートデータセット間でグローバルおよびローカルモデルのテスト精度のメトリクスのバランスをとることを実証しています。
論文 参考訳(メタデータ) (2022-06-22T02:42:04Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z) - Global Aggregation then Local Distribution for Scene Parsing [99.1095068574454]
提案手法は,エンドツーエンドのトレーニング可能なブロックとしてモジュール化され,既存のセマンティックセグメンテーションネットワークに容易に接続可能であることを示す。
私たちのアプローチでは、Cityscapes、ADE20K、Pascal Context、Camvid、COCO-stuffといった主要なセマンティックセグメンテーションベンチマークに基づいて、新しい最先端の技術を構築できます。
論文 参考訳(メタデータ) (2021-07-28T03:46:57Z) - Combined Global and Local Search for Optimization with Gaussian Process
Models [1.1602089225841632]
本稿では,最適化フレームワークにAdditive Global and Local GP(AGLGP)モデルを導入する。
AGLGPは誘導点に基づくGPスパース近似に根ざしており、異なる領域の独立局所モデルと組み合わせられている。
まず、設計空間全体を非結合な局所領域に分割し、グローバルモデルで有望な領域を特定する。
次に、この領域内の詳細な探索をガイドするために、選択された領域の局所モデルが適合する。
アルゴリズムは、よい局所解が見つかると、グローバルステップに切り替える。
論文 参考訳(メタデータ) (2021-07-07T13:40:37Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - NeuSE: A Neural Snapshot Ensemble Method for Collaborative Filtering [16.347327867397443]
協調的グローバルスナップショットフィルタリング(CF)データセットでは、最適なモデルは通常、すべての観測データに対する経験的リスクを世界規模で最小化することによって学習される。
本稿では,提案手法が比較的既存の協調手法に適用した場合の精度(最大15.9%)を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2021-04-15T06:43:40Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z) - Optimal Local Explainer Aggregation for Interpretable Prediction [12.934180951771596]
ブラックボックスマシン学習モデルを導入する際の意思決定者にとっての課題は、これらのモデルが提供する予測を理解することだ。
提案手法の1つは、より複雑なモデルに近似した代理説明器モデルの訓練である。
本稿では,情報パラメータに基づく新しい局所的説明アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-20T19:02:11Z) - Think Locally, Act Globally: Federated Learning with Local and Global
Representations [92.68484710504666]
フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータ上でモデルをトレーニングする手法である。
本稿では,各デバイス上でコンパクトな局所表現を共同で学習する新しいフェデレーション学習アルゴリズムを提案する。
また、プライバシが鍵となる実世界のモバイルデータから、パーソナライズされた気分予測のタスクを評価する。
論文 参考訳(メタデータ) (2020-01-06T12:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。