論文の概要: The Influence of Multiple Classes on Learning Online Classifiers from
Imbalanced and Concept Drifting Data Streams
- arxiv url: http://arxiv.org/abs/2210.08359v1
- Date: Sat, 15 Oct 2022 19:15:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 20:22:35.390772
- Title: The Influence of Multiple Classes on Learning Online Classifiers from
Imbalanced and Concept Drifting Data Streams
- Title(参考訳): 不均衡および概念ドリフトデータストリームからのオンライン分類器学習における複数クラスの影響
- Authors: Agnieszka Lipska and Jerzy Stefanowski
- Abstract要約: 局所的なデータ特性とドリフトは不均衡なデータストリームで研究される。
分裂する少数民族の局所的な流れが第三の要因である。
バイナリストリームとは異なり、特殊な UOB と OOB の分類器は高い不均衡比でも十分に機能する。
- 参考スコア(独自算出の注目度): 1.370633147306388
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work is aimed at the experimental studying the influence of local data
characteristics and drifts on the difficulties of learning various online
classifiers from multi-class imbalanced data streams. Firstly we present a
categorization of these data factors and drifts in the context of imbalanced
streams, then we introduce the generators of synthetic streams that model these
factors and drifts. The results of many experiments with synthetically
generated data streams have shown a much greater role of the overlapping
between many minority classes (the type of borderline examples) than for
streams with one minority class. The presence of rare examples in the stream is
the most difficult single factor. The local drift of splitting minority classes
is the third influential factor. Unlike binary streams, the specialized UOB and
OOB classifiers perform well enough for even high imbalance ratios. The most
challenging for all classifiers are complex scenarios integrating the drifts of
the identified factors simultaneously, which worsen the evaluation measures in
the case of a several minority classes stronger than for binary ones. This is
an extended version of the short paper presented at LIDTA'2022 workshop at
ECMLPKDD2022.
- Abstract(参考訳): 本研究の目的は,マルチクラス不均衡データストリームから様々なオンライン分類器を学習することの難しさに対する局所データ特性とドリフトの影響を実験的に研究することである。
まず,不均衡ストリームの文脈におけるデータ因子とドリフトの分類を行い,これらの因子とドリフトをモデル化する合成ストリームの生成法を紹介する。
人工的に生成されたデータストリームを用いた多くの実験の結果は、1つのマイノリティクラスを持つストリームよりも、多くのマイノリティクラス(境界線の例の種類)間で重なり合うことのずっと大きな役割を示している。
ストリームに稀な例が存在することは、最も難しい単一要因である。
分裂する少数民族の局所的な流れが第三の要因である。
バイナリストリームとは異なり、特殊な UOB と OOB の分類器は高い不均衡比でも十分に機能する。
すべての分類器にとって最も難しいのは、識別された因子のドリフトを同時に統合する複雑なシナリオであり、二進数よりも強いいくつかのマイノリティクラスの場合、評価指標が悪化する。
これはecmlpkdd2022のlidta'2022ワークショップで発表された短い論文の拡張版である。
関連論文リスト
- Improving Online Bagging for Complex Imbalanced Data Stream [2.693342141713236]
安全でないマイノリティ事例の存在をよりよく考慮するために,オンラインバッグの再サンプル化の拡張を提案する。
合成複素不均衡データストリームを用いた計算実験は、オンラインバッグ再サンプリングアンサンブルの以前の変種よりも有利であることを示した。
論文 参考訳(メタデータ) (2024-10-04T15:38:37Z) - SMOClust: Synthetic Minority Oversampling based on Stream Clustering for
Evolving Data Streams [4.378407481656902]
本稿では,ストリームクラスタリングに基づくマイノリティクラスを合成するためのドリフトオーバーサンプリング戦略を提案する。
その動機は、ストリームクラスタリングメソッドが、現在の根底にある概念の特徴を反映するために、継続的に更新されることです。
人工的および実世界のデータストリームを用いた実験により、提案手法は既存の手法よりも多様なマイノリティクラス分解を含む概念ドリフトを処理可能であることが示された。
論文 参考訳(メタデータ) (2023-08-28T19:06:03Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Balanced Classification: A Unified Framework for Long-Tailed Object
Detection [74.94216414011326]
従来の検出器は、分類バイアスによる長期データを扱う際の性能劣化に悩まされる。
本稿では,カテゴリ分布の格差に起因する不平等の適応的是正を可能にする,BAlanced CLassification (BACL) と呼ばれる統一フレームワークを提案する。
BACLは、さまざまなバックボーンとアーキテクチャを持つさまざまなデータセット間で、一貫してパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-08-04T09:11:07Z) - An Empirical Study on the Joint Impact of Feature Selection and Data
Resampling on Imbalance Classification [4.506770920842088]
本研究では,不均衡分類のための特徴選択とデータ再サンプリングの相乗性に着目した。
9つの特徴選択手法、クラス不均衡学習のための6つの再サンプリング手法、および3つのよく知られた分類アルゴリズムを用いて、52の公開データセットに対して多数の実験を行った。
論文 参考訳(メタデータ) (2021-09-01T06:01:51Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Concept Drift Detection from Multi-Class Imbalanced Data Streams [6.436899373275926]
Restricted Boltzmann Machineに基づく新しい訓練可能なコンセプトドリフトディテクタを提案する。
複数のクラスを同時に監視し、レコンストラクションエラーを使用して各クラスの変更を独立して検出することができる。
この検出器はスキュー非感受性損失関数を利用して複数の不均衡分布を処理できる。
論文 参考訳(メタデータ) (2021-04-20T20:03:54Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。