論文の概要: Resilient Class-Incremental Learning: on the Interplay of Drifting, Unlabelled and Imbalanced Data Streams
- arxiv url: http://arxiv.org/abs/2602.09681v1
- Date: Tue, 10 Feb 2026 11:37:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.511328
- Title: Resilient Class-Incremental Learning: on the Interplay of Drifting, Unlabelled and Imbalanced Data Streams
- Title(参考訳): 弾力性のあるクラスインクリメンタルラーニング--ドリフトとアンラベリングと不均衡なデータストリームの相互作用について
- Authors: Jin Li, Kleanthis Malialis, Marios Polycarpou,
- Abstract要約: 本稿では,これらの課題に対処するためのSCIL(Streaming Class-Incremental Learning)を提案する。
このフレームワークは、マルチクラスの予測のための多層パーセプトロンと自動エンコーダ(AE)を統合し、予測と新しいクラス検出にデュアルロス戦略(分類と再構築)を使用し、オンライントレーニングに修正済みの擬似ラベルを採用し、キューでクラスを管理し、不均衡を処理するためにオーバーサンプリングを適用する。
以上の結果から,SCILは強いベースラインや最先端手法よりも優れていた。
- 参考スコア(独自算出の注目度): 3.3977968101293956
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In today's connected world, the generation of massive streaming data across diverse domains has become commonplace. In the presence of concept drift, class imbalance, label scarcity, and new class emergence, they jointly degrade representation stability, bias learning toward outdated distributions, and reduce the resilience and reliability of detection in dynamic environments. This paper proposes SCIL (Streaming Class-Incremental Learning) to address these challenges. The SCIL framework integrates an autoencoder (AE) with a multi-layer perceptron for multi-class prediction, uses a dual-loss strategy (classification and reconstruction) for prediction and new class detection, employs corrected pseudo-labels for online training, manages classes with queues, and applies oversampling to handle imbalance. The rationale behind the method's structure is elucidated through ablation studies and a comprehensive experimental evaluation is performed using both real-world and synthetic datasets that feature class imbalance, incremental classes, and concept drifts. Our results demonstrate that SCIL outperforms strong baselines and state-of-the-art methods. Based on our commitment to Open Science, we make our code and datasets available to the community.
- Abstract(参考訳): 今日のコネクテッドな世界では、さまざまなドメインにわたる巨大なストリーミングデータの生成が一般的になっています。
概念ドリフト,クラス不均衡,ラベル不足,新しいクラス出現の存在下では,表現安定性の低下,時代遅れな分布へのバイアス学習,動的環境における検出のレジリエンスと信頼性の低下などが相まって行われる。
本稿では,これらの課題に対処するためのSCIL(Streaming Class-Incremental Learning)を提案する。
SCILフレームワークは、マルチクラス予測のための多層パーセプトロンと自動エンコーダ(AE)を統合し、予測と新しいクラス検出にデュアルロス戦略(分類と再構築)を使用し、オンライントレーニングに修正済みの擬似ラベルを採用し、キュー付きクラスを管理し、アンバランスを処理するためにオーバーサンプリングを適用する。
この手法の構造の背後にある理論的根拠はアブレーション研究によって解明され、クラス不均衡、インクリメンタルクラス、概念ドリフトを特徴とする実世界のデータセットと合成データセットの両方を用いて包括的な実験的評価が行われる。
以上の結果から,SCILは強いベースラインや最先端手法よりも優れていた。
Open Scienceへのコミットメントに基づいて、コードとデータセットをコミュニティに公開しています。
関連論文リスト
- Gradient Reweighting: Towards Imbalanced Class-Incremental Learning [8.438092346233054]
CIL(Class-Incremental Learning)は、非定常データから新しいクラスを継続的に認識するためにモデルを訓練する。
CILの大きな課題は、非一様分布を特徴とする実世界のデータに適用する場合である。
この二重不均衡問題により、FC層に偏りのある勾配更新が生じ、CILの過度/過度な適合と破滅的な忘れが引き起こされる。
論文 参考訳(メタデータ) (2024-02-28T18:08:03Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - General Incremental Learning with Domain-aware Categorical
Representations [37.68376996568006]
本研究では,EMフレームワークに基づく新しいドメイン認識連続学習手法を提案する。
具体的には、von Mises-Fisher混合モデルに基づくフレキシブルなクラス表現を導入し、クラス内構造をキャプチャする。
本研究では, クラス内およびクラス間のデータ不均衡に対処するバイレベルバランスメモリを設計し, 蒸留損失と組み合わせて, クラス間およびクラス内安定性・塑性トレードオフを改善する。
論文 参考訳(メタデータ) (2022-04-08T13:57:33Z) - Bilevel Online Deep Learning in Non-stationary Environment [4.565872584112864]
Bilevel Online Deep Learning (BODL)フレームワークは、双方向最適化戦略とオンラインアンサンブル分類器を組み合わせたフレームワークである。
概念ドリフトが検出されると、BODLアルゴリズムはバイレベル最適化によりモデルパラメータを適応的に更新し、大きなドリフトを回避し、正の転送を促進する。
論文 参考訳(メタデータ) (2022-01-25T11:05:51Z) - Learning from Heterogeneous Data Based on Social Interactions over
Graphs [58.34060409467834]
本研究では,個別のエージェントが異なる次元のストリーミング特徴を観察しながら分類問題の解決を目指す分散アーキテクチャを提案する。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
論文 参考訳(メタデータ) (2021-12-17T12:47:18Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Online Learning With Adaptive Rebalancing in Nonstationary Environments [11.501721946030779]
オンライン学習における非定常データと不均衡データからの学習に関する新たな洞察を提供する。
本稿では,AREBA(Adaptive REBAlancing)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-24T20:40:04Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。