論文の概要: Adaptive XGBoost for Evolving Data Streams
- arxiv url: http://arxiv.org/abs/2005.07353v1
- Date: Fri, 15 May 2020 04:28:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 22:33:48.969729
- Title: Adaptive XGBoost for Evolving Data Streams
- Title(参考訳): データストリームの進化のための適応型XGBoost
- Authors: Jacob Montiel, Rory Mitchell, Eibe Frank, Bernhard Pfahringer, Talel
Abdessalem, Albert Bifet
- Abstract要約: 進化するデータストリームの分類にeXtreme Gradient Boosting (XGB)を適用した。
提案手法は,新たなデータが利用可能になるにつれて,データのミニバッチからアンサンブルの新たなメンバーを生成する。
また,アンサンブルを更新する機構を起動するためのコンセプトドリフト検出の活用についても検討する。
- 参考スコア(独自算出の注目度): 10.72621265850799
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Boosting is an ensemble method that combines base models in a sequential
manner to achieve high predictive accuracy. A popular learning algorithm based
on this ensemble method is eXtreme Gradient Boosting (XGB). We present an
adaptation of XGB for classification of evolving data streams. In this setting,
new data arrives over time and the relationship between the class and the
features may change in the process, thus exhibiting concept drift. The proposed
method creates new members of the ensemble from mini-batches of data as new
data becomes available. The maximum ensemble size is fixed, but learning does
not stop when this size is reached because the ensemble is updated on new data
to ensure consistency with the current concept. We also explore the use of
concept drift detection to trigger a mechanism to update the ensemble. We test
our method on real and synthetic data with concept drift and compare it against
batch-incremental and instance-incremental classification methods for data
streams.
- Abstract(参考訳): boostingは、ベースモデルを逐次的に組み合わせ、高い予測精度を達成するアンサンブル手法である。
このアンサンブル法に基づく一般的な学習アルゴリズムはeXtreme Gradient Boosting (XGB)である。
進化するデータストリームの分類におけるXGBの適応について述べる。
この設定では、新しいデータが時間とともに到着し、クラスと機能の関係がプロセス内で変わる可能性があるため、コンセプトドリフトが現れる。
提案手法は,新たなデータが利用可能になると,ミニバッチからアンサンブルの新たなメンバーを生成する。
最大アンサンブルサイズは固定されているが、現在の概念との一貫性を確保するために新しいデータでアンサンブルが更新されるため、このサイズに達すると学習は停止しない。
また,アンサンブルを更新する機構を起動するためのコンセプトドリフト検出の活用についても検討する。
提案手法は実データと合成データを用いて,データストリームのバッチインクリメンタルおよびインスタンスインクリメンタルな分類法と比較する。
関連論文リスト
- Incremental Structure Discovery of Classification via Sequential Monte Carlo [5.1581069235093295]
本稿では,事前知識の少ない複雑なデータの分類モデルを自動的に発見する手法を提案する。
本手法では, カーネルの様々な特徴を, 合成データと実世界のデータに自動的に組み込んで分類することができる。
論文 参考訳(メタデータ) (2024-08-15T01:23:49Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Adaptive Cross Batch Normalization for Metric Learning [75.91093210956116]
メトリクス学習はコンピュータビジョンの基本的な問題である。
蓄積した埋め込みが最新であることを保証することは、同様に重要であることを示す。
特に、蓄積した埋め込みと現在のトレーニングイテレーションにおける特徴埋め込みとの間の表現的ドリフトを回避する必要がある。
論文 参考訳(メタデータ) (2023-03-30T03:22:52Z) - Continual Learning with Optimal Transport based Mixture Model [17.398605698033656]
成熟最適輸送理論(OT-MM)の優れた性質に基づくオンライン混合モデル学習手法を提案する。
提案手法は,現在の最先端のベースラインを大きく上回ることができる。
論文 参考訳(メタデータ) (2022-11-30T06:40:29Z) - Contextual Squeeze-and-Excitation for Efficient Few-Shot Image
Classification [57.36281142038042]
本稿では,事前学習したニューラルネットワークを新しいタスクで調整し,性能を大幅に向上させる,Contextual Squeeze-and-Excitation (CaSE) という適応ブロックを提案する。
また、メタトレーニングされたCaSEブロックと微調整ルーチンを利用して効率よく適応する、アッパーCaSEと呼ばれるコーディネートダイスに基づく新しいトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2022-06-20T15:25:08Z) - Tackling Online One-Class Incremental Learning by Removing Negative
Contrasts [12.048166025000976]
他の連続的な学習設定とは違い、学習者は1回だけ新しいサンプルが提示される。
ER-AMLは、入力データと再生データにコントラスト学習に基づく非対称な損失を適用することにより、この設定で強い性能を達成した。
我々は、教師付き学習から教師付き学習環境へ、最近提案されたアプローチを適応させ、コントラストの制約を解き放つ。
論文 参考訳(メタデータ) (2022-03-24T19:17:29Z) - KGBoost: A Classification-based Knowledge Base Completion Method with
Negative Sampling [29.14178162494542]
KGBoostは、リンク予測の欠如のために強力な分類器を訓練する新しい方法である。
我々は、複数のベンチマークデータセットで実験を行い、KGBoostがほとんどのデータセットで最先端のメソッドより優れていることを示す。
エンドツーエンドの最適化によって訓練されたモデルと比較して、KGBoostは、より小さなモデルサイズを実現するために、低次元設定下でうまく機能する。
論文 参考訳(メタデータ) (2021-12-17T06:19:37Z) - Employing chunk size adaptation to overcome concept drift [2.277447144331876]
ブロックベースのデータストリーム分類アルゴリズムに適応可能な新しいチャンク適応復元フレームワークを提案する。
提案アルゴリズムは,概念ドリフト検出時のデータチャンクサイズを調整し,その変更が使用済みモデルの予測性能に与える影響を最小限に抑える。
論文 参考訳(メタデータ) (2021-10-25T12:36:22Z) - Semi-supervised Long-tailed Recognition using Alternate Sampling [95.93760490301395]
ロングテール認識の主な課題は、データ分布の不均衡とテールクラスにおけるサンプル不足である。
半教師付き長尾認識という新しい認識設定を提案する。
2つのデータセットで、他の競合方法よりも大幅な精度向上を実証します。
論文 参考訳(メタデータ) (2021-05-01T00:43:38Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z) - Ensemble Wrapper Subsampling for Deep Modulation Classification [70.91089216571035]
受信した無線信号のサブサンプリングは、ハードウェア要件と信号処理アルゴリズムの計算コストを緩和するために重要である。
本稿では,無線通信システムにおけるディープラーニングを用いた自動変調分類のためのサブサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-05-10T06:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。