論文の概要: Automated Imbalanced Classification via Layered Learning
- arxiv url: http://arxiv.org/abs/2205.02553v1
- Date: Thu, 5 May 2022 10:32:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 14:28:18.167359
- Title: Automated Imbalanced Classification via Layered Learning
- Title(参考訳): 階層学習による自動不均衡分類
- Authors: Vitor Cerqueira, Luis Torgo, Paula Brance, Colin Bellinger
- Abstract要約: トレーニングインスタンスのクラス分布のバランスをとるために再サンプリング戦略を適用することは、これらの問題に対処するための一般的なアプローチである。
多くの最先端の手法は、再サンプリングプロセスを実行するために決定境界に近い関心の事例を見つける。
オーバーサンプリングは、少数層からインスタンスに含まれる情報を伝播することで、過度に適合する可能性を高める可能性がある。
- 参考スコア(独自算出の注目度): 0.734084539365505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we address imbalanced binary classification (IBC) tasks.
Applying resampling strategies to balance the class distribution of training
instances is a common approach to tackle these problems. Many state-of-the-art
methods find instances of interest close to the decision boundary to drive the
resampling process. However, under-sampling the majority class may potentially
lead to important information loss. Over-sampling also may increase the chance
of overfitting by propagating the information contained in instances from the
minority class. The main contribution of our work is a new method called ICLL
for tackling IBC tasks which is not based on resampling training observations.
Instead, ICLL follows a layered learning paradigm to model the data in two
stages. In the first layer, ICLL learns to distinguish cases close to the
decision boundary from cases which are clearly from the majority class, where
this dichotomy is defined using a hierarchical clustering analysis. In the
subsequent layer, we use instances close to the decision boundary and instances
from the minority class to solve the original predictive task. A second
contribution of our work is the automatic definition of the layers which
comprise the layered learning strategy using a hierarchical clustering model.
This is a relevant discovery as this process is usually performed manually
according to domain knowledge. We carried out extensive experiments using 100
benchmark data sets. The results show that the proposed method leads to a
better performance relatively to several state-of-the-art methods for IBC.
- Abstract(参考訳): 本稿では,不均衡二分分類(IBC)の課題に対処する。
トレーニングインスタンスのクラス分散のバランスに再サンプリング戦略を適用することは、これらの問題に取り組むための一般的なアプローチである。
多くの最先端の手法は、再サンプリングプロセスを実行するために決定境界に近い関心の事例を見つける。
しかし、大多数のクラスをアンダーサンプリングすると、重要な情報を失う可能性がある。
オーバーサンプリングはまた、マイノリティクラスからインスタンスに含まれる情報を伝播することで、過度に適合する可能性を高める。
本研究の主な貢献は, IBCタスクに対するICLLと呼ばれる新しい手法である。
その代わり、ICLLは2つの段階でデータをモデル化するための階層学習パラダイムに従う。
第1の層では、ICLLは決定境界に近いケースを、階層的なクラスタリング分析を用いてこの二分法を定義する多数派から明らかなケースと区別することを学ぶ。
その後のレイヤでは、決定境界に近いインスタンスとマイノリティクラスのインスタンスを使用して、元の予測タスクを解決します。
私たちの研究の第2の貢献は階層的クラスタリングモデルを用いた階層型学習戦略を構成するレイヤの自動定義です。
このプロセスは通常、ドメイン知識に従って手動で実行されるので、これは関連する発見である。
100個のベンチマークデータセットを用いて広範な実験を行った。
その結果,提案手法はICBCの最先端手法に対して比較的優れた性能を示すことがわかった。
関連論文リスト
- MultIOD: Rehearsal-free Multihead Incremental Object Detector [17.236182938227163]
本研究では,CenterNetに基づくクラスインクリメンタルオブジェクト検出器であるMultIODを提案する。
われわれは,まず学習したクラスと漸進的に学習したクラスの間で伝達学習を採用し,破滅的な忘れに対処した。
その結果,本手法は2つのPascal VOCデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2023-09-11T09:32:45Z) - SLCA: Slow Learner with Classifier Alignment for Continual Learning on a
Pre-trained Model [73.80068155830708]
予備学習モデル(CLPM)を用いた連続学習のための広範囲な解析法を提案する。
Slow Learner with Alignment (SLCA) というシンプルなアプローチを提案する。
さまざまなシナリオにおいて、私たちの提案はCLPMの大幅な改善を提供します。
論文 参考訳(メタデータ) (2023-03-09T08:57:01Z) - Enhancing Classification with Hierarchical Scalable Query on Fusion
Transformer [0.4129225533930965]
本稿では,学習可能な独立クエリ埋め込みによる階層的手法により,きめ細かい分類を向上する手法を提案する。
階層構造の概念を利用して、あらゆるレベルにわたってスケーラブルなクエリの埋め込みを学びます。
本手法は, 細粒度分類において, 従来の手法よりも11%の精度で性能を向上できる。
論文 参考訳(メタデータ) (2023-02-28T11:00:55Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Local overlap reduction procedure for dynamic ensemble selection [13.304462985219237]
クラス不均衡は、分類モデルにおいて学習をより困難にすることで知られる特徴である。
分類過程における局所クラス重複の影響を最小限に抑えるDS手法を提案する。
実験の結果,提案手法はベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2022-06-16T21:31:05Z) - Envelope Imbalance Learning Algorithm based on Multilayer Fuzzy C-means
Clustering and Minimum Interlayer discrepancy [14.339674126923903]
本稿では,マルチ層ファジィc-means(MlFCM)と最小層間離散化機構(MIDMD)を用いたディープインスタンスエンベロープネットワークに基づく不均衡学習アルゴリズムを提案する。
このアルゴリズムは、事前の知識がなければ、ディープインスタンスエンベロープネットワークを使用して、高品質なバランスの取れたインスタンスを保証できる。
論文 参考訳(メタデータ) (2021-11-02T04:59:57Z) - MCDAL: Maximum Classifier Discrepancy for Active Learning [74.73133545019877]
近年の最先端のアクティブラーニング手法は, 主にGAN(Generative Adversarial Networks)をサンプル取得に活用している。
本稿では,MCDAL(Maximum Discrepancy for Active Learning)と呼ぶ新しいアクティブラーニングフレームワークを提案する。
特に,両者の差分を最大化することにより,より厳密な決定境界を学習する2つの補助的分類層を利用する。
論文 参考訳(メタデータ) (2021-07-23T06:57:08Z) - Partial Is Better Than All: Revisiting Fine-tuning Strategy for Few-shot
Learning [76.98364915566292]
一般的なプラクティスは、まずベースセット上でモデルをトレーニングし、その後、微調整によって新しいクラスに移行することである。
本稿では,基本モデル内の特定の層を凍結あるいは微調整することにより,部分的知識の伝達を提案する。
提案手法の有効性を実証するために, CUB と mini-ImageNet の広範な実験を行った。
論文 参考訳(メタデータ) (2021-02-08T03:27:05Z) - Binary Classification from Multiple Unlabeled Datasets via Surrogate Set
Classification [94.55805516167369]
我々は m 個の U 集合を $mge2$ で二進分類する新しい手法を提案する。
我々のキーとなる考え方は、サロゲート集合分類(SSC)と呼ばれる補助的分類タスクを考えることである。
論文 参考訳(メタデータ) (2021-02-01T07:36:38Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Multi-Stage Transfer Learning with an Application to Selection Process [5.933303832684138]
多段階プロセスでは、決定は順序付けられた段階の順序で行われる。
本研究では,早期に訓練された単純な分類器からの知識を利用するテキスト・マルチ・スタゲ・トランスファー・ラーニング(MSGTL)手法を提案する。
簡単な確率写像を用いて,知識の保存と微調整のトレードオフを制御可能であることを示す。
論文 参考訳(メタデータ) (2020-06-01T21:27:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。