論文の概要: LightTS: Lightweight Time Series Classification with Adaptive Ensemble
Distillation -- Extended Version
- arxiv url: http://arxiv.org/abs/2302.12721v1
- Date: Fri, 24 Feb 2023 16:20:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 13:00:29.043761
- Title: LightTS: Lightweight Time Series Classification with Adaptive Ensemble
Distillation -- Extended Version
- Title(参考訳): LightTS: 適応型アンサンブル蒸留による軽量時系列分類 - 拡張バージョン
- Authors: David Campos, Miao Zhang, Bin Yang, Tung Kieu, Chenjuan Guo, Christian
S. Jensen
- Abstract要約: 最先端の分類精度は、しばしばアンサンブル学習によって達成される。
大規模なアンサンブルを軽量モデルに圧縮するLightTSフレームワークを提案する。
実世界の時系列セット128と、異なるタイプのベースモデルを用いた実験について報告する。
- 参考スコア(独自算出の注目度): 39.07118753818186
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the sweeping digitalization of processes, increasingly vast amounts of
time series data are being produced. Accurate classification of such time
series facilitates decision making in multiple domains. State-of-the-art
classification accuracy is often achieved by ensemble learning where results
are synthesized from multiple base models. This characteristic implies that
ensemble learning needs substantial computing resources, preventing their use
in resource-limited environments, such as in edge devices. To extend the
applicability of ensemble learning, we propose the LightTS framework that
compresses large ensembles into lightweight models while ensuring competitive
accuracy. First, we propose adaptive ensemble distillation that assigns
adaptive weights to different base models such that their varying
classification capabilities contribute purposefully to the training of the
lightweight model. Second, we propose means of identifying Pareto optimal
settings w.r.t. model accuracy and model size, thus enabling users with a space
budget to select the most accurate lightweight model. We report on experiments
using 128 real-world time series sets and different types of base models that
justify key decisions in the design of LightTS and provide evidence that
LightTS is able to outperform competitors.
- Abstract(参考訳): プロセスの徹底的なデジタル化により、膨大な時系列データが作成されている。
このような時系列の正確な分類は、複数の領域における意思決定を促進する。
最先端の分類精度は、複数のベースモデルから結果を合成するアンサンブル学習によって達成されることが多い。
この特徴は、アンサンブル学習が相当な計算資源を必要とし、エッジデバイスのようなリソース制限された環境での使用を防ぐことを意味する。
アンサンブル学習の適用性を高めるため,競争精度を確保しつつ,大規模なアンサンブルを軽量モデルに圧縮するLightTSフレームワークを提案する。
まず,異なるベースモデルに適応重みを割り当てる適応型アンサンブル蒸留法を提案する。
次に,パレート最適設定w.r.t.モデル精度とモデルサイズを識別する手法を提案する。
我々は,LightTSの設計における重要な決定を正当化する128の実世界の時系列セットと,異なるタイプのベースモデルを用いた実験について報告し,LightTSが競合より優れていることを示す。
関連論文リスト
- Dividable Configuration Performance Learning [4.949726352498762]
本稿では,DaLと呼ばれる構成性能を予測するためのモデルに依存しない,スパース性ロバストなフレームワークを提案する。
DaLは、"diide-and-learn"を使ってモデルを構築する、分割可能な学習の新しいパラダイムに基づいている。
論文 参考訳(メタデータ) (2024-09-11T21:23:23Z) - A Two-Phase Recall-and-Select Framework for Fast Model Selection [13.385915962994806]
本稿では,2相モデル選択フレームワークを提案する。
これは、ベンチマークデータセット上でモデルのトレーニングパフォーマンスを活用することにより、堅牢なモデルを選択する効率を高めることを目的としている。
提案手法は,従来のベースライン法に比べて約3倍の速度でハイパフォーマンスモデルの選択を容易にすることが実証された。
論文 参考訳(メタデータ) (2024-03-28T14:44:44Z) - Deep incremental learning models for financial temporal tabular datasets
with distribution shifts [0.9790236766474201]
このフレームワークは、単純な基本的なビルディングブロック(決定木)を使用して、必要な複雑さの自己相似モデルを構築する。
我々は,NumeraiデータセットでトレーニングしたXGBoostモデルを用いて提案手法を実証し,異なるモデルスナップショット上での2層のXGBoostモデルの深部アンサンブルが高品質な予測を提供することを示す。
論文 参考訳(メタデータ) (2023-03-14T14:10:37Z) - Enabling Calibration In The Zero-Shot Inference of Large Vision-Language
Models [58.720142291102135]
プロンプト、データセット、アーキテクチャといった関連する変数のキャリブレーションを測定し、CLIPによるゼロショット推論が誤校正されていることを見つけます。
学習した1つの温度は、推論データセットにまたがって特定のCLIPモデルごとに一般化され、選択が促される。
論文 参考訳(メタデータ) (2023-03-11T17:14:04Z) - Model ensemble instead of prompt fusion: a sample-specific knowledge
transfer method for few-shot prompt tuning [85.55727213502402]
我々は、ソースタスクのソフトプロンプトから知識を伝達することで、プロンプトチューニングにおける数ショットのパフォーマンスを改善することに集中する。
我々はソースモデル(SESoM)のサンプル固有アンサンブルを提案する。
SESoMは、ソースモデルが出力されるときに、ターゲットの各サンプルに対するソースモデルのコントリビューションを個別に調整することを学ぶ。
論文 参考訳(メタデータ) (2022-10-23T01:33:16Z) - Switchable Representation Learning Framework with Self-compatibility [50.48336074436792]
自己整合性(SFSC)を考慮した交換可能な表現学習フレームワークを提案する。
SFSCは1つのトレーニングプロセスを通じて、異なる能力を持つ一連の互換性のあるサブモデルを生成する。
SFSCは評価データセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-06-16T16:46:32Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - Data Summarization via Bilevel Optimization [48.89977988203108]
シンプルだが強力なアプローチは、小さなサブセットのデータを操作することだ。
本研究では,コアセット選択を基数制約付き双レベル最適化問題として定式化する汎用コアセットフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-26T09:08:38Z) - Reinforcement Learning based dynamic weighing of Ensemble Models for
Time Series Forecasting [0.8399688944263843]
データモデリングのために選択されたモデルが(線形/非線形、静的/動的)異なるモデルと独立(最小相関)モデルである場合、予測の精度が向上することが知られている。
アンサンブルモデルを重み付けするために文献で提案された様々なアプローチは、静的な重みセットを使用する。
この問題に対処するため、Reinforcement Learning (RL)アプローチでは、各モデルの重み付けを異なるタイミングで動的に割り当て、更新する。
論文 参考訳(メタデータ) (2020-08-20T10:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。