論文の概要: Model Compression for Dynamic Forecast Combination
- arxiv url: http://arxiv.org/abs/2104.01830v1
- Date: Mon, 5 Apr 2021 09:55:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 21:53:28.523808
- Title: Model Compression for Dynamic Forecast Combination
- Title(参考訳): 動的予測合成のためのモデル圧縮
- Authors: Vitor Cerqueira, Luis Torgo, Carlos Soares, Albert Bifet
- Abstract要約: 動的予測アンサンブルを個々のモデルに圧縮すると、同様の予測性能が得られることを示す。
また,平均ランクが最も高い圧縮個々モデルは規則に基づく回帰モデルであることを示した。
- 参考スコア(独自算出の注目度): 9.281199058905017
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The predictive advantage of combining several different predictive models is
widely accepted. Particularly in time series forecasting problems, this
combination is often dynamic to cope with potential non-stationary sources of
variation present in the data. Despite their superior predictive performance,
ensemble methods entail two main limitations: high computational costs and lack
of transparency. These issues often preclude the deployment of such approaches,
in favour of simpler yet more efficient and reliable ones. In this paper, we
leverage the idea of model compression to address this problem in time series
forecasting tasks. Model compression approaches have been mostly unexplored for
forecasting. Their application in time series is challenging due to the
evolving nature of the data. Further, while the literature focuses on neural
networks, we apply model compression to distinct types of methods. In an
extensive set of experiments, we show that compressing dynamic forecasting
ensembles into an individual model leads to a comparable predictive performance
and a drastic reduction in computational costs. Further, the compressed
individual model with best average rank is a rule-based regression model. Thus,
model compression also leads to benefits in terms of model interpretability.
The experiments carried in this paper are fully reproducible.
- Abstract(参考訳): 複数の異なる予測モデルを組み合わせるという予測上の利点は広く受け入れられている。
特に時系列予測問題において、この組み合わせはデータに存在する潜在的な非定常的な変化源に対処するためにしばしば動的である。
優れた予測性能にもかかわらず、アンサンブル法は高い計算コストと透明性の欠如という2つの大きな制限を課している。
これらの問題は、よりシンプルで効率的で信頼性の高いアプローチの展開を妨げることが多い。
本稿では,モデル圧縮の考え方を活用し,時系列予測タスクにおいてこの問題に対処する。
モデル圧縮アプローチは、予測のためにほとんど検討されていない。
彼らの時系列での応用は、データの進化のために困難である。
さらに,本論文ではニューラルネットワークに着目しながら,異なるタイプの手法にモデル圧縮を適用する。
実験により,個々のモデルに動的予測アンサンブルを圧縮することで,予測性能と計算コストの大幅な削減が達成されることを示した。
さらに、最も平均ランクの高い圧縮個別モデルは規則に基づく回帰モデルである。
したがって、モデル圧縮はモデル解釈可能性の観点からも利点をもたらす。
本論文で実施した実験は完全に再現可能である。
関連論文リスト
- On conditional diffusion models for PDE simulations [53.01911265639582]
スパース観測の予測と同化のためのスコアベース拡散モデルについて検討した。
本稿では,予測性能を大幅に向上させる自動回帰サンプリング手法を提案する。
また,条件付きスコアベースモデルに対する新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-10-21T18:31:04Z) - An Experimental Study on the Rashomon Effect of Balancing Methods in Imbalanced Classification [0.0]
本稿では,ラショモン効果を用いた予測多重度に及ぼすバランス法の影響について検討する。
データ中心のAIにおける盲点モデル選択は、ほぼ同じ精度のモデルのセットからリスクが高いため、非常に重要です。
論文 参考訳(メタデータ) (2024-03-22T13:08:22Z) - Predictive Churn with the Set of Good Models [64.05949860750235]
近似機械学習モデルの集合に対する競合予測の効果について検討する。
ラーショモン集合内のモデル間の係り受けに関する理論的結果を示す。
当社のアプローチは、コンシューマ向けアプリケーションにおいて、より予測し、削減し、混乱を避けるためにどのように使用できるかを示します。
論文 参考訳(メタデータ) (2024-02-12T16:15:25Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Bias in Pruned Vision Models: In-Depth Analysis and Countermeasures [93.17009514112702]
ニューラルネットワークのパラメータのかなりの部分集合をゼロに設定するプルーニングは、モデル圧縮の最も一般的な方法の1つである。
この現象の既存の証拠にもかかわらず、ニューラルネットワークのプルーニングと誘導バイアスの関係はよく理解されていない。
論文 参考訳(メタデータ) (2023-04-25T07:42:06Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - What do Compressed Large Language Models Forget? Robustness Challenges
in Model Compression [68.82486784654817]
本稿では,知識蒸留とプルーニングを含む2つの一般的なモデル圧縮手法について検討する。
本研究では, 圧縮モデルが, 対向テストセット上のPLMモデルよりもはるかに頑健であることを示す。
サンプル不確実性に基づくモデル圧縮の正規化戦略を開発する。
論文 参考訳(メタデータ) (2021-10-16T00:20:04Z) - Consistent Counterfactuals for Deep Models [25.1271020453651]
ファクトファクトの例は、金融や医療診断といった重要な領域における機械学習モデルの予測を説明するために使用される。
本稿では,初期訓練条件に小さな変更を加えた深層ネットワークにおける実例に対するモデル予測の整合性について検討する。
論文 参考訳(メタデータ) (2021-10-06T23:48:55Z) - Simultaneously Reconciled Quantile Forecasting of Hierarchically Related
Time Series [11.004159006784977]
本稿では,階層間の予測の整合性を維持するために,量子レグレッション損失を最適化するフレキシブル非線形モデルを提案する。
ここで導入された理論的枠組みは、下層の微分可微分損失関数を持つ任意の予測モデルに適用できる。
論文 参考訳(メタデータ) (2021-02-25T00:59:01Z) - Pattern Similarity-based Machine Learning Methods for Mid-term Load
Forecasting: A Comparative Study [0.0]
パターン類似性に基づく年次電力需要予測手法について検討した。
モデルの不可欠な部分は、時系列シーケンスのパターンを用いた時系列表現である。
近接モデル,ファジィ近傍モデル,カーネル回帰モデル,一般回帰ニューラルネットワークの4つのモデルを考える。
論文 参考訳(メタデータ) (2020-03-03T12:14:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。