論文の概要: Improving Online Bagging for Complex Imbalanced Data Stream
- arxiv url: http://arxiv.org/abs/2410.03519v1
- Date: Fri, 4 Oct 2024 15:38:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 21:50:00.674071
- Title: Improving Online Bagging for Complex Imbalanced Data Stream
- Title(参考訳): 複雑な不均衡データストリームのためのオンラインバギングの改善
- Authors: Bartosz Przybyl, Jerzy Stefanowski,
- Abstract要約: 安全でないマイノリティ事例の存在をよりよく考慮するために,オンラインバッグの再サンプル化の拡張を提案する。
合成複素不均衡データストリームを用いた計算実験は、オンラインバッグ再サンプリングアンサンブルの以前の変種よりも有利であることを示した。
- 参考スコア(独自算出の注目度): 2.693342141713236
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning classifiers from imbalanced and concept drifting data streams is still a challenge. Most of the current proposals focus on taking into account changes in the global imbalance ratio only and ignore the local difficulty factors, such as the minority class decomposition into sub-concepts and the presence of unsafe types of examples (borderline or rare ones). As the above factors present in the stream may deteriorate the performance of popular online classifiers, we propose extensions of resampling online bagging, namely Neighbourhood Undersampling or Oversampling Online Bagging to take better account of the presence of unsafe minority examples. The performed computational experiments with synthetic complex imbalanced data streams have shown their advantage over earlier variants of online bagging resampling ensembles.
- Abstract(参考訳): 不均衡とデータストリームのドリフトから分類器を学ぶことは依然として課題である。
現在の提案の多くは、グローバル不均衡比の変化を考慮に入れ、少数民族のサブコンセプトへの分解や、安全でない種類の例(国境線や珍しいもの)の存在など、局所的な困難要素を無視することに集中している。
ストリームに存在する要因はオンライン分類器の性能を低下させる可能性があるため、安全でないマイノリティ事例の存在を考慮し、オンライン・バッグングの強化、すなわち、近隣アンダーサンプリング(Neighbourhood Undersampling)やオーバーサンプリング・オンライン・バッグング(Oversampling Online Bagging)を提案する。
合成複素不均衡データストリームを用いた計算実験は、オンラインバッグ再サンプリングアンサンブルの以前の変種よりも有利であることを示した。
関連論文リスト
- Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - SMOClust: Synthetic Minority Oversampling based on Stream Clustering for
Evolving Data Streams [4.378407481656902]
本稿では,ストリームクラスタリングに基づくマイノリティクラスを合成するためのドリフトオーバーサンプリング戦略を提案する。
その動機は、ストリームクラスタリングメソッドが、現在の根底にある概念の特徴を反映するために、継続的に更新されることです。
人工的および実世界のデータストリームを用いた実験により、提案手法は既存の手法よりも多様なマイノリティクラス分解を含む概念ドリフトを処理可能であることが示された。
論文 参考訳(メタデータ) (2023-08-28T19:06:03Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Improved Bayes Risk Can Yield Reduced Social Welfare Under Competition [99.7047087527422]
本研究は,機械学習のスケーリングトレンドの振る舞いを根本的に変化させることを実証する。
データ表現品質の改善により、ユーザ間での全体的な予測精度が低下する、多くの設定が見つかる。
概念レベルでは,各モデルプロジェクタのスケーリング傾向が,社会福祉の下流改善に寄与する必要はないことが示唆された。
論文 参考訳(メタデータ) (2023-06-26T13:06:34Z) - Generative Oversampling for Imbalanced Data via Majority-Guided VAE [15.93867386081279]
本稿では,多数派の指導のもと,新たなマイノリティサンプルを生成する,Majority-Guided VAE(MGVAE)と呼ばれる新しいオーバーサンプリングモデルを提案する。
このようにして、新しく生成されたマイノリティサンプルは、大多数のサンプルの多様性と豊かさを継承することができ、下流タスクにおける過度な適合を軽減できる。
論文 参考訳(メタデータ) (2023-02-14T06:35:23Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - The Influence of Multiple Classes on Learning Online Classifiers from
Imbalanced and Concept Drifting Data Streams [1.370633147306388]
局所的なデータ特性とドリフトは不均衡なデータストリームで研究される。
分裂する少数民族の局所的な流れが第三の要因である。
バイナリストリームとは異なり、特殊な UOB と OOB の分類器は高い不均衡比でも十分に機能する。
論文 参考訳(メタデータ) (2022-10-15T19:15:50Z) - Imbalanced Classification via Explicit Gradient Learning From Augmented
Data [0.0]
本稿では、与えられた不均衡なデータセットを新しいマイノリティインスタンスに拡張する、新しい深層メタラーニング手法を提案する。
提案手法の利点は, 種々の不均衡比を持つ合成および実世界のデータセット上で実証される。
論文 参考訳(メタデータ) (2022-02-21T22:16:50Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。