論文の概要: The Meta-Learning Gap: Combining Hydra and Quant for Large-Scale Time Series Classification
- arxiv url: http://arxiv.org/abs/2512.06666v1
- Date: Sun, 07 Dec 2025 05:37:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.460317
- Title: The Meta-Learning Gap: Combining Hydra and Quant for Large-Scale Time Series Classification
- Title(参考訳): 大規模時系列分類のためのHydraとQuantを組み合わせたメタラーニングギャップ
- Authors: Urav Maniar,
- Abstract要約: 時系列分類は精度と計算効率の基本的なトレードオフに直面している。
2つの効率的なアルゴリズムの組み合わせがアンサンブルの利点を捉えることができるかどうかを検討する。
10個の大規模なMONSTERデータセットの性能評価を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time series classification faces a fundamental trade-off between accuracy and computational efficiency. While comprehensive ensembles like HIVE-COTE 2.0 achieve state-of-the-art accuracy, their 340-hour training time on the UCR benchmark renders them impractical for large-scale datasets. We investigate whether targeted combinations of two efficient algorithms from complementary paradigms can capture ensemble benefits while maintaining computational feasibility. Combining Hydra (competing convolutional kernels) and Quant (hierarchical interval quantiles) across six ensemble configurations, we evaluate performance on 10 large-scale MONSTER datasets (7,898 to 1,168,774 training instances). Our strongest configuration improves mean accuracy from 0.829 to 0.836, succeeding on 7 of 10 datasets. However, prediction-combination ensembles capture only 11% of theoretical oracle potential, revealing a substantial meta-learning optimization gap. Feature-concatenation approaches exceeded oracle bounds by learning novel decision boundaries, while prediction-level complementarity shows moderate correlation with ensemble gains. The central finding: the challenge has shifted from ensuring algorithms are different to learning how to combine them effectively. Current meta-learning strategies struggle to exploit the complementarity that oracle analysis confirms exists. Improved combination strategies could potentially double or triple ensemble gains across diverse time series classification applications.
- Abstract(参考訳): 時系列分類は精度と計算効率の基本的なトレードオフに直面している。
HIVE-COTE 2.0のような包括的なアンサンブルは最先端の精度を達成するが、UCRベンチマークでの340時間のトレーニング時間は、大規模なデータセットでは実用的ではないことを示している。
相補的パラダイムからの2つの効率的なアルゴリズムの組み合わせが、計算可能性を維持しながらアンサンブルの利点を捉えることができるかどうかを検討する。
Hydra(畳み込みカーネル)とQuant(階層間隔量子化)を6つのアンサンブル構成で組み合わせて、10の大規模MONSTERデータセット(7,898から1,168,774のトレーニングインスタンス)のパフォーマンスを評価する。
我々の最強構成は平均精度を0.829から0.836に改善し、10つのデータセットのうち7つを成功させた。
しかし、予測合成アンサンブルは理論上のオラクルポテンシャルの11%しか捉えておらず、メタラーニング最適化のかなりのギャップが明らかになっている。
特徴連結アプローチは、新しい決定境界を学ぶことによってオラクル境界を超えたが、予測レベルの相補性はアンサンブルゲインと適度な相関を示す。
中心的な発見: この課題は、アルゴリズムを効果的に組み合わせる方法を学ぶことから、アルゴリズムを確実にすることへと移行した。
現在のメタラーニング戦略は、オラクル分析が確認した相補性を活用するのに苦労している。
組み合わせ戦略の改善は、様々な時系列分類アプリケーションにまたがる2倍または3倍のアンサンブルゲインをもたらす可能性がある。
関連論文リスト
- Segmentation over Complexity: Evaluating Ensemble and Hybrid Approaches for Anomaly Detection in Industrial Time Series [36.94429692322632]
本研究では,変化点に基づく統計的特徴,クラスタリングに基づくサブ構造表現,およびハイブリッド学習戦略が検出性能に与える影響を評価する。
アンサンブルは0.976のAUC-ROC、F1スコア0.41のAUC-ROC、および定義された時間窓内での早期検出を100%達成した。
論文 参考訳(メタデータ) (2025-10-30T05:39:44Z) - Taming LLMs by Scaling Learning Rates with Gradient Grouping [49.91587150497186]
大きな言語モデル(LLM)のトレーニングは、その大規模で異質なアーキテクチャのため、課題を提起する。
SGG(Scaling with Gradient Grouping)は、動的グルーピングとグループ固有のスケーリングによる適応的な学習率推定を改善するグラデーションラッパーである。
論文 参考訳(メタデータ) (2025-06-01T15:30:37Z) - Optimally Improving Cooperative Learning in a Social Setting [4.200480236342444]
個人所有の分類器を持つネットワークエージェントの集合を動的に更新する協調学習シナリオを考察する。
本稿では,集合目的関数を最適化するための時間アルゴリズムを示し,平等目的関数の最適化がNPハードであることを示す。
全てのアルゴリズムの性能は数学的解析によって保証され、合成データと実データの実験によって裏付けられている。
論文 参考訳(メタデータ) (2024-05-31T14:07:33Z) - A Weighted K-Center Algorithm for Data Subset Selection [70.49696246526199]
サブセット選択は、トレーニングデータの小さな部分を特定する上で重要な役割を果たす、基本的な問題である。
我々は,k中心および不確かさサンプリング目的関数の重み付け和に基づいて,サブセットを計算する新しい係数3近似アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-12-17T04:41:07Z) - Hierarchically Coherent Multivariate Mixture Networks [11.40498954142061]
確率的コヒーレント予測(probabilistic coherent forecasting)は、アグリゲーションのレベルにわたって一貫性のある予測を生成する。
我々は、時系列の関係を捉えるために、複合的可能性目的でネットワークを最適化する。
我々のアプローチでは、最先端のベースラインと比較して、ほとんどのデータセットの平均精度が13.2%向上している。
論文 参考訳(メタデータ) (2023-05-11T18:52:11Z) - Towards Inference Efficient Deep Ensemble Learning [35.1550905788943]
アンサンブル法は驚くべき性能向上をもたらすが、計算コストも大幅に高くなる。
本研究では,アンサンブル学習における効率と効率を同時に最適化する,推論効率のよいアンサンブル学習手法を提案する。
実世界のデータセットで異なるバックボーンを用いた実験は、我々の手法が推論コストを最大56%削減できることを示している。
論文 参考訳(メタデータ) (2023-01-29T06:48:53Z) - Personalized Decentralized Multi-Task Learning Over Dynamic
Communication Graphs [59.96266198512243]
本稿では,正と負の相関関係を持つタスクに対する分散・フェデレーション学習アルゴリズムを提案する。
本アルゴリズムでは,タスク間の相関関係を自動的に計算し,コミュニケーショングラフを動的に調整して相互に有益なタスクを接続し,互いに悪影響を及ぼす可能性のあるタスクを分離する。
合成ガウスデータセットと大規模セレブ属性(CelebA)データセットについて実験を行った。
論文 参考訳(メタデータ) (2022-12-21T18:58:24Z) - Deep Negative Correlation Classification [82.45045814842595]
既存のディープアンサンブル手法は、多くの異なるモデルをナビゲートし、予測を集約する。
深部負相関分類(DNCC)を提案する。
DNCCは、個々の推定器が正確かつ負の相関を持つ深い分類アンサンブルを生成する。
論文 参考訳(メタデータ) (2022-12-14T07:35:20Z) - GraphLearner: Graph Node Clustering with Fully Learnable Augmentation [76.63963385662426]
Contrastive Deep Graph Clustering (CDGC)は、異なるクラスタにノードをグループ化するために、コントラスト学習のパワーを活用する。
我々は、GraphLearnerと呼ばれる、完全学習可能な拡張を備えたグラフノードクラスタリングを提案する。
学習可能な拡張器を導入し、CDGCのための高品質でタスク固有の拡張サンプルを生成する。
論文 参考訳(メタデータ) (2022-12-07T10:19:39Z) - Deep Active Ensemble Sampling For Image Classification [8.31483061185317]
アクティブラーニングフレームワークは、最も有益なデータポイントのラベル付けを積極的に要求することで、データアノテーションのコストを削減することを目的としている。
提案手法には、不確実性に基づく手法、幾何学的手法、不確実性に基づく手法と幾何学的手法の暗黙の組み合わせなどがある。
本稿では, サンプル選択戦略における効率的な探索・探索トレードオフを実現するために, 不確実性に基づくフレームワークと幾何学的フレームワークの両方の最近の進歩を革新的に統合する。
本フレームワークは,(1)正確な後続推定,(2)計算オーバーヘッドと高い精度のトレードオフの2つの利点を提供する。
論文 参考訳(メタデータ) (2022-10-11T20:20:20Z) - Network Classifiers Based on Social Learning [71.86764107527812]
空間と時間に対して独立に訓練された分類器を結合する新しい手法を提案する。
提案したアーキテクチャは、ラベルのないデータで時間とともに予測性能を改善することができる。
この戦略は高い確率で一貫した学習をもたらすことが示され、未訓練の分類器に対して頑健な構造が得られる。
論文 参考訳(メタデータ) (2020-10-23T11:18:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。