論文の概要: A Broad Ensemble Learning System for Drifting Stream Classification
- arxiv url: http://arxiv.org/abs/2110.03540v1
- Date: Thu, 7 Oct 2021 15:01:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 16:06:03.445540
- Title: A Broad Ensemble Learning System for Drifting Stream Classification
- Title(参考訳): ドリフトストリーム分類のための広帯域アンサンブル学習システム
- Authors: Sepehr Bakhshi, Pouya Ghahramanian, Hamed Bonab, and Fazli Can
- Abstract要約: 本研究では,概念ドリフトを用いたストリーム分類のためのBroad Ensemble Learning System (BELS)を提案する。
BELSは、クラス内の最高のモデルの精度を大幅に向上させる新しい更新方法を使用している。
提案手法は,BLSに比べて平均44%改善し,他の競争基準に比べて29%改善した。
- 参考スコア(独自算出の注目度): 3.087840197124265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data stream classification has become a major research topic due to the
increase in temporal data. One of the biggest hurdles of data stream
classification is the development of algorithms that deal with evolving data,
also known as concept drifts. As data changes over time, static prediction
models lose their validity. Adapting to concept drifts provides more robust and
better performing models. The Broad Learning System (BLS) is an effective broad
neural architecture recently developed for incremental learning. BLS cannot
provide instant response since it requires huge data chunks and is unable to
handle concept drifts. We propose a Broad Ensemble Learning System (BELS) for
stream classification with concept drift. BELS uses a novel updating method
that greatly improves best-in-class model accuracy. It employs a dynamic output
ensemble layer to address the limitations of BLS. We present its mathematical
derivation, provide comprehensive experiments with 11 datasets that demonstrate
the adaptability of our model, including a comparison of our model with BLS,
and provide parameter and robustness analysis on several drifting streams,
showing that it statistically significantly outperforms seven state-of-the-art
baselines. We show that our proposed method improves on average 44% compared to
BLS, and 29% compared to other competitive baselines.
- Abstract(参考訳): データストリーム分類は、時間的データの増加により、主要な研究トピックとなっている。
データストリーム分類の最大の障害の1つは、進化するデータを扱うアルゴリズムの開発である。
データが時間とともに変化すると、静的予測モデルは妥当性を失う。
コンセプトドリフトへの適応は、より堅牢でパフォーマンスのよいモデルを提供する。
Broad Learning System (BLS)は、最近インクリメンタルラーニングのために開発された効果的な広義ニューラルネットワークである。
BLSは大量のデータチャンクを必要とし、概念のドリフトを処理できないため、即時応答は提供できない。
本研究では,概念ドリフトを用いたストリーム分類のためのBroad Ensemble Learning System (BELS)を提案する。
belsは、クラス内モデルの精度を大幅に向上させる新しい更新方法を使っている。
BLSの限界に対処するために動的出力アンサンブル層を使用する。
数式導出を行い、BLSとの比較を含む11のデータセットによる総合的な実験を行い、複数のドリフトストリーム上でパラメータとロバスト性解析を行い、7つの最先端のベースラインを統計的に著しく上回ることを示す。
提案手法はblsと比較して平均44%改善し,他の競合ベースラインと比較して29%改善した。
関連論文リスト
- Drift-Resilient TabPFN: In-Context Learning Temporal Distribution Shifts on Tabular Data [39.40116554523575]
In-Context Learning with a Prior-Data Fitted Network に基づく新しいアプローチである Drift-Resilient TabPFN を提案する。
先行した合成データセットのベイズ推定を近似することを学ぶ。
精度は0.688から0.744に向上し、OC AUCは0.786から0.832に向上し、キャリブレーションも強化された。
論文 参考訳(メタデータ) (2024-11-15T23:49:23Z) - A Bayesian Approach to Data Point Selection [24.98069363998565]
データポイントの選択(DPS)は、ディープラーニングにおいて重要なトピックになりつつある。
既存のDPSへのアプローチは、主にバイレベル最適化(BLO)の定式化に基づいている。
DPSに対する新しいベイズ的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-06T09:04:13Z) - Fisher Information-based Efficient Curriculum Federated Learning with Large Language Models [43.26028399395612]
本稿では,2つの新しい手法を用いたフィッシャー情報に基づく効率的なカリキュラムフェデレート学習フレームワーク(FibecFed)を提案する。
まず,各装置内のデータを適応的にサンプリングし,FL微調整プロセスの有効性を向上させるための漁師情報に基づく手法を提案する。
第2に,グローバルアグリゲーションのための適切なレイヤとLoRAによるローカル更新のためのスパースパラメータを動的に選択する。
論文 参考訳(メタデータ) (2024-09-30T18:12:18Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Continual Learning with Optimal Transport based Mixture Model [17.398605698033656]
成熟最適輸送理論(OT-MM)の優れた性質に基づくオンライン混合モデル学習手法を提案する。
提案手法は,現在の最先端のベースラインを大きく上回ることができる。
論文 参考訳(メタデータ) (2022-11-30T06:40:29Z) - Bilevel Online Deep Learning in Non-stationary Environment [4.565872584112864]
Bilevel Online Deep Learning (BODL)フレームワークは、双方向最適化戦略とオンラインアンサンブル分類器を組み合わせたフレームワークである。
概念ドリフトが検出されると、BODLアルゴリズムはバイレベル最適化によりモデルパラメータを適応的に更新し、大きなドリフトを回避し、正の転送を促進する。
論文 参考訳(メタデータ) (2022-01-25T11:05:51Z) - Hyperparameter-free Continuous Learning for Domain Classification in
Natural Language Understanding [60.226644697970116]
ドメイン分類は自然言語理解(NLU)の基本課題である
既存の継続的な学習アプローチの多くは、低い精度とパフォーマンスの変動に悩まされている。
本研究では,テキストデータに対するパラメータフリー連続学習モデルを提案する。
論文 参考訳(メタデータ) (2022-01-05T02:46:16Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - RIFLE: Backpropagation in Depth for Deep Transfer Learning through
Re-Initializing the Fully-connected LayEr [60.07531696857743]
事前訓練されたモデルを用いたディープ畳み込みニューラルネットワーク(CNN)の微調整は、より大きなデータセットから学習した知識をターゲットタスクに転送するのに役立つ。
転送学習環境におけるバックプロパゲーションを深める戦略であるRIFLEを提案する。
RIFLEは、深いCNN層の重み付けに意味のあるアップデートをもたらし、低レベルの機能学習を改善する。
論文 参考訳(メタデータ) (2020-07-07T11:27:43Z) - Learnable Bernoulli Dropout for Bayesian Deep Learning [53.79615543862426]
Learnable Bernoulli Dropout (LBD) は、他のモデルパラメータと共に最適化されたパラメータとしてドロップアウト率を考慮する新しいモデルに依存しないドロップアウトスキームである。
LBDは画像分類とセマンティックセグメンテーションにおける精度と不確実性の推定を改善する。
論文 参考訳(メタデータ) (2020-02-12T18:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。