論文の概要: The DONUT Approach to EnsembleCombination Forecasting
- arxiv url: http://arxiv.org/abs/2201.00426v1
- Date: Sun, 2 Jan 2022 22:19:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 20:17:35.088323
- Title: The DONUT Approach to EnsembleCombination Forecasting
- Title(参考訳): ドーナツによるアンサンブル結合予測法
- Authors: Lars Lien Ankile, Kjartan Krange
- Abstract要約: 本稿では,M4Competitionデータセット上で強力な結果を示すアンサンブル予測手法を提案する。
提案手法は,主に自動生成機能と,より多様なモデルプールで構成され,統計的特徴に基づくアンサンブル法であるFFORMAよりも優れていた。
また,M4データセット上での線形最適化による差分を定量化するために,アンサンブルの最適組み合わせと選択に関する公式なポストファクト解析を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents an ensemble forecasting method that shows strong results
on the M4Competition dataset by decreasing feature and model selection
assumptions, termed DONUT(DO Not UTilize human assumptions). Our assumption
reductions, consisting mainly of auto-generated features and a more diverse
model pool for the ensemble, significantly outperforms the
statistical-feature-based ensemble method FFORMA by Montero-Manso et al.
(2020). Furthermore, we investigate feature extraction with a Long short-term
memory Network(LSTM) Autoencoder and find that such features contain crucial
information not captured by traditional statistical feature approaches. The
ensemble weighting model uses both LSTM features and statistical features to
combine the models accurately. Analysis of feature importance and interaction
show a slight superiority for LSTM features over the statistical ones alone.
Clustering analysis shows that different essential LSTM features are different
from most statistical features and each other. We also find that increasing the
solution space of the weighting model by augmenting the ensemble with new
models is something the weighting model learns to use, explaining part of the
accuracy gains. Lastly, we present a formal ex-post-facto analysis of optimal
combination and selection for ensembles, quantifying differences through linear
optimization on the M4 dataset. We also include a short proof that model
combination is superior to model selection, a posteriori.
- Abstract(参考訳): 本稿では,DONUT(DO Not UTilize human assumptions)と呼ばれる特徴とモデル選択の仮定を減らし,M4Competitionデータセット上で強い結果を示すアンサンブル予測手法を提案する。
自動生成特徴量とより多様なアンサンブルモデルプールからなる仮定の削減は,montro-manso et al. (2020) による統計的特徴量に基づくアンサンブル法 fforma を大きく上回っている。
さらに,Long Short-term memory Network (LSTM) Autoencoder を用いて特徴抽出を行い,従来の統計的特徴量アプローチでは捉えられない重要な情報を含むことを確認した。
アンサンブル重み付けモデルはLSTM特徴と統計特徴の両方を用いてモデルを正確に組み合わせる。
特徴の重要性と相互作用の分析は,統計的特徴だけではLSTMの特徴がわずかに優れていることを示している。
クラスタリング分析により、LSTMの特徴は、多くの統計的特徴と異なることが分かる。
また、新しいモデルでアンサンブルを増強することで重み付けモデルの解空間を増大させることで、重み付けモデルが使用することを学習し、精度向上の一部を説明する。
最後に,m4データセットの線形最適化による差異の定量化により,アンサンブルの最適組み合わせと選択の形式的前事後分析を提案する。
モデルの組み合わせがモデル選択よりも優れているという短い証明も含んでいる。
関連論文リスト
- EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z) - Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - Binary Feature Mask Optimization for Feature Selection [0.0]
本稿では,モデルの予測を考慮した特徴選択を行う新しいフレームワークを提案する。
我々のフレームワークは、選択過程における特徴を排除するために、新しい特徴マスキングアプローチを用いて革新する。
機械学習モデルとしてLightGBMとMulti-Layer Perceptronを用いた実生活データセットの性能改善を示す。
論文 参考訳(メタデータ) (2024-01-23T10:54:13Z) - Embedded feature selection in LSTM networks with multi-objective
evolutionary ensemble learning for time series forecasting [49.1574468325115]
本稿では,Long Short-Term Memory Networkに埋め込まれた特徴選択手法を提案する。
本手法はLSTMの重みと偏りを分割的に最適化する。
イタリアとスペイン南東部の大気質時系列データの実験的評価により,従来のLSTMの能力一般化が著しく向上することが確認された。
論文 参考訳(メタデータ) (2023-12-29T08:42:10Z) - A Bayesian Framework on Asymmetric Mixture of Factor Analyser [0.0]
本稿では、スキュー正規(無制限)一般化双曲型(SUNGH)分布のリッチで柔軟なクラスを持つMFAモデルを提案する。
SUNGHファミリーは、様々な方向の歪みをモデル化する柔軟性と、重み付きデータを可能にする。
因子分析モデルを考慮すると、SUNGHファミリーは誤差成分と因子スコアの両方の歪みと重みを許容する。
論文 参考訳(メタデータ) (2022-11-01T20:19:52Z) - Model ensemble instead of prompt fusion: a sample-specific knowledge
transfer method for few-shot prompt tuning [85.55727213502402]
我々は、ソースタスクのソフトプロンプトから知識を伝達することで、プロンプトチューニングにおける数ショットのパフォーマンスを改善することに集中する。
我々はソースモデル(SESoM)のサンプル固有アンサンブルを提案する。
SESoMは、ソースモデルが出力されるときに、ターゲットの各サンプルに対するソースモデルのコントリビューションを個別に調整することを学ぶ。
論文 参考訳(メタデータ) (2022-10-23T01:33:16Z) - Sparse MoEs meet Efficient Ensembles [49.313497379189315]
このようなモデルの2つの一般的なクラス、すなわちニューラルネットワークのアンサンブルと専門家のスパースミックス(スパースMoE)の相互作用について研究する。
Efficient Ensemble of Experts (E$3$)は、両モデルのクラスを最大限に活用するスケーラブルでシンプルなMoEのアンサンブルであり、深いアンサンブルよりも最大45%少ないFLOPを使用する。
論文 参考訳(メタデータ) (2021-10-07T11:58:35Z) - A Data-driven feature selection and machine-learning model benchmark for
the prediction of longitudinal dispersion coefficient [29.58577229101903]
縦方向分散(LD)係数の正確な予測は、関連するシミュレーションにおいて性能の飛躍をもたらすことができる。
本研究では, 蒸留した局所最適値と代表MLモデルとの数値比較により, 大域的最適特徴集合を提案した。
その結果,サポートベクタマシンは他のモデルよりも大幅に性能が向上していることがわかった。
論文 参考訳(メタデータ) (2021-07-16T09:50:38Z) - Split Modeling for High-Dimensional Logistic Regression [0.2676349883103404]
短時間コンパイルしたアンサンブルロジスティック分類モデルに対して,新しい手法を提案する。
本手法は,予測精度に優れたバイアスオフの活用法を学習する。
提案手法を実装したオープンソースソフトウェアライブラリを議論する。
論文 参考訳(メタデータ) (2021-02-17T05:57:26Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。