論文の概要: Enhancing Time Series Classification with Diversity-Driven Neural Network Ensembles
- arxiv url: http://arxiv.org/abs/2602.07579v1
- Date: Sat, 07 Feb 2026 15:05:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.705954
- Title: Enhancing Time Series Classification with Diversity-Driven Neural Network Ensembles
- Title(参考訳): 多様性駆動型ニューラルネットワークアンサンブルによる時系列分類の強化
- Authors: Javidan Abdullayev, Maxime Devanne, Cyril Meyer, Ali Ismail-Fawaz, Jonathan Weber, Germain Forestier,
- Abstract要約: 本稿では,ニューラルネットワークのアンサンブルメンバー間の特徴多様性を明確に促進する,多様性駆動型アンサンブル学習フレームワークを提案する。
UCRアーカイブから128データセットのフレームワークを評価し,より少ないモデルでSOTA性能を実現することを示す。
- 参考スコア(独自算出の注目度): 0.776514389034479
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensemble methods have played a crucial role in achieving state-of-the-art (SOTA) performance across various machine learning tasks by leveraging the diversity of features learned by individual models. In Time Series Classification (TSC), ensembles have proven highly effective whether based on neural networks (NNs) or traditional methods like HIVE-COTE. However most existing NN-based ensemble methods for TSC train multiple models with identical architectures and configurations. These ensembles aggregate predictions without explicitly promoting diversity which often leads to redundant feature representations and limits the benefits of ensembling. In this work, we introduce a diversity-driven ensemble learning framework that explicitly encourages feature diversity among neural network ensemble members. Our approach employs a decorrelated learning strategy using a feature orthogonality loss applied directly to the learned feature representations. This ensures that each model in the ensemble captures complementary rather than redundant information. We evaluate our framework on 128 datasets from the UCR archive and show that it achieves SOTA performance with fewer models. This makes our method both efficient and scalable compared to conventional NN-based ensemble approaches.
- Abstract(参考訳): アンサンブル法は、個々のモデルで学習した特徴の多様性を活用することにより、さまざまな機械学習タスクにおける最先端(SOTA)パフォーマンスを達成する上で重要な役割を担っている。
時系列分類(TSC)において、アンサンブルはニューラルネットワーク(NN)やHIVE-COTEのような従来の手法をベースとするか、非常に効果的であることが証明されている。
しかし、既存のNNベースのTSCのアンサンブル手法のほとんどは、同じアーキテクチャと構成を持つ複数のモデルを訓練している。
これらのアンサンブルは、多様性を明示的に促進せず、しばしば冗長な特徴表現をもたらし、アンサンブルの利点を制限する。
本研究では,ニューラルネットワークのアンサンブルメンバー間の特徴多様性を明確に促進する,多様性駆動型アンサンブル学習フレームワークを提案する。
提案手法では,学習した特徴表現に直接適用される特徴の直交損失を用いて,非相関的な学習戦略を採用する。
これにより、アンサンブルの各モデルが冗長な情報ではなく補完的な情報をキャプチャすることを保証します。
UCRアーカイブから128データセットのフレームワークを評価し,より少ないモデルでSOTA性能を実現することを示す。
これにより,従来の NN ベースのアンサンブル手法と比較して,手法は効率的かつスケーラブルである。
関連論文リスト
- Improving Set Function Approximation with Quasi-Arithmetic Neural Networks [23.73257235603082]
準数学的ニューラルネットワーク(qui-arithmetic Neural Network, QUINN)を提案する。
quaNNは、一般的な集合関数分解の幅広いクラスに対する普遍近似である。
理論解析により、quarNNは共通な集合関数分解の幅広いクラスに対する普遍近似であることを示す。
論文 参考訳(メタデータ) (2026-02-04T18:36:31Z) - Divergent Ensemble Networks: Enhancing Uncertainty Estimation with Shared Representations and Independent Branching [0.9963916732353794]
Divergent Ensemble Network (DEN)は、共有表現学習と独立分岐を組み合わせた新しいアーキテクチャである。
DENは共有入力層を使用して、すべてのブランチに共通する特徴をキャプチャし、続いて、アンサンブルを形成する独立したトレーニング可能な層を分離する。
この共有分岐構造は、アンサンブルの多様性を維持しながらパラメータの冗長性を低減し、効率的でスケーラブルな学習を可能にする。
論文 参考訳(メタデータ) (2024-12-02T06:52:45Z) - Regularized Neural Ensemblers [55.15643209328513]
本研究では,正規化ニューラルネットワークをアンサンブル手法として活用することを検討する。
低多様性のアンサンブルを学習するリスクを動機として,ランダムにベースモデル予測をドロップすることで,アンサンブルモデルの正規化を提案する。
このアプローチはアンサンブル内の多様性の低い境界を提供し、過度な適合を減らし、一般化能力を向上させる。
論文 参考訳(メタデータ) (2024-10-06T15:25:39Z) - HCE: Improving Performance and Efficiency with Heterogeneously
Compressed Neural Network Ensemble [22.065904428696353]
最近のアンサンブルトレーニング手法では,同じモデルアーキテクチャを持つ複数のサブモデルの異なるトレーニングアルゴリズムや設定を探索している。
我々は、事前訓練されたDNNモデルから、切断された量子化された変種と効率的なアンサンブルを構築するヘテロジェネリー圧縮アンサンブル(HCE)を提案する。
論文 参考訳(メタデータ) (2023-01-18T21:47:05Z) - Deep Negative Correlation Classification [82.45045814842595]
既存のディープアンサンブル手法は、多くの異なるモデルをナビゲートし、予測を集約する。
深部負相関分類(DNCC)を提案する。
DNCCは、個々の推定器が正確かつ負の相関を持つ深い分類アンサンブルを生成する。
論文 参考訳(メタデータ) (2022-12-14T07:35:20Z) - Weak Augmentation Guided Relational Self-Supervised Learning [80.0680103295137]
本稿では、異なるインスタンス間の関係をモデル化して表現を学習する新しいリレーショナル自己教師型学習(ReSSL)フレームワークを提案する。
提案手法では,異なるインスタンス間でのペアワイズ類似度の分布を,テクトitrelationmetricとして高めている。
実験の結果,提案したReSSLは,ネットワークアーキテクチャの異なる最先端手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-03-16T16:14:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。