論文の概要: Review of Methods for Handling Class-Imbalanced in Classification
Problems
- arxiv url: http://arxiv.org/abs/2211.05456v1
- Date: Thu, 10 Nov 2022 10:07:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 15:40:06.269932
- Title: Review of Methods for Handling Class-Imbalanced in Classification
Problems
- Title(参考訳): 分類問題におけるクラス不均衡処理手法の見直し
- Authors: Satyendra Singh Rawat (Amity University, Gwalior, India), Amit Kumar
Mishra (Amity University, Gwalior, India)
- Abstract要約: 場合によっては、あるクラスはほとんどの例を含むが、他方はより重要なクラスであり、しかしながら、少数の例で表される。
本稿では、データレベル、アルゴリズムレベル、ハイブリッド、コスト感受性学習、ディープラーニングを含む、クラス不均衡による学習の問題に対処する最も広く使われている手法について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning classifiers using skewed or imbalanced datasets can occasionally
lead to classification issues; this is a serious issue. In some cases, one
class contains the majority of examples while the other, which is frequently
the more important class, is nevertheless represented by a smaller proportion
of examples. Using this kind of data could make many carefully designed
machine-learning systems ineffective. High training fidelity was a term used to
describe biases vs. all other instances of the class. The best approach to all
possible remedies to this issue is typically to gain from the minority class.
The article examines the most widely used methods for addressing the problem of
learning with a class imbalance, including data-level, algorithm-level, hybrid,
cost-sensitive learning, and deep learning, etc. including their advantages and
limitations. The efficiency and performance of the classifier are assessed
using a myriad of evaluation metrics.
- Abstract(参考訳): 歪や不均衡なデータセットを用いた学習分類器は、時として分類問題を引き起こすことがある。
場合によっては、あるクラスはほとんどの例を含むが、他方はより重要なクラスであり、しかしながら、少数の例で表される。
この種のデータを使用することで、慎重に設計された機械学習システムが非効率になる可能性がある。
高いトレーニング忠実度は、クラスの他のすべてのインスタンスに対するバイアスを記述するために使用された用語です。
この問題を解決するための最善のアプローチは、典型的にはマイノリティクラスから得ることである。
本稿は,データレベル,アルゴリズムレベル,ハイブリッド,コストセンシティブな学習,ディープラーニングなど,クラス不均衡による学習問題に対する最も広く利用されている手法について検討する。
分類器の効率と性能は、無数の評価指標を用いて評価する。
関連論文リスト
- Unsupervised Estimation of Ensemble Accuracy [0.0]
いくつかの分類器の結合力を推定する手法を提案する。
ラベルに依存しない「多様性」対策に重点を置く既存のアプローチとは異なる。
本手法は,一般的な大規模顔認証データセット上で実証する。
論文 参考訳(メタデータ) (2023-11-18T02:31:36Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - Multi-Label Quantification [78.83284164605473]
定量化とは、教師なしデータサンプルにおいて、興味あるクラスの相対周波数の予測子を生成する教師付き学習課題である。
本研究では,その相対頻度をより正確に予測するために,興味あるクラス間の依存関係を活用しようとするクラス有病率値の推定手法を提案する。
論文 参考訳(メタデータ) (2022-11-15T11:29:59Z) - Class-Imbalanced Complementary-Label Learning via Weighted Loss [8.934943507699131]
補完ラベル学習(Complementary-label Learning, CLL)は、弱い教師付き分類において広く用いられている。
クラス不均衡のトレーニングサンプルに直面すると、現実世界のデータセットでは大きな課題に直面します。
多クラス分類のためのクラス不均衡補完ラベルからの学習を可能にする新しい問題設定を提案する。
論文 参考訳(メタデータ) (2022-09-28T16:02:42Z) - Latent Preserving Generative Adversarial Network for Imbalance
classification [17.992830267031877]
エンド・ツー・エンドの深層生成分類器を提案する。
本稿では,ジェネレータの遅延空間を予め保持するドメイン制約オートエンコーダを提案する。
3つの異なる多クラス不均衡問題と最先端手法との比較実験を行った。
論文 参考訳(メタデータ) (2022-09-04T07:49:27Z) - Learning from Multiple Unlabeled Datasets with Partial Risk
Regularization [80.54710259664698]
本稿では,クラスラベルを使わずに正確な分類器を学習することを目的とする。
まず、与えられたラベルのない集合から推定できる分類リスクの偏りのない推定器を導出する。
その結果、経験的リスクがトレーニング中に負になるにつれて、分類器が過度に適合する傾向があることが判明した。
実験により,本手法は,複数の未ラベル集合から学習する最先端の手法を効果的に緩和し,性能を向上することを示した。
論文 参考訳(メタデータ) (2022-07-04T16:22:44Z) - Multi-Class Classification from Single-Class Data with Confidences [90.48669386745361]
本稿では,損失/モデル/最適化非依存のリスク最小化フレームワークを提案する。
提案手法は, 与えられた信頼度が高ノイズであっても, 簡易な修正でベイズ整合性を示す。
論文 参考訳(メタデータ) (2021-06-16T15:38:13Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Evaluating Nonlinear Decision Trees for Binary Classification Tasks with
Other Existing Methods [8.870380386952993]
データセットを2つ以上の異なるクラスに分類することは、機械学習の重要なタスクである。
多くのメソッドは、テストデータに対して非常に高い精度でバイナリ分類タスクを分類することができるが、容易に解釈可能な説明を提供することはできない。
我々は、最近提案された非線形決定木アプローチを、多くのデータセットでよく使われている分類手法で強調し、評価する。
論文 参考訳(メタデータ) (2020-08-25T00:00:23Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。