論文の概要: Local overlap reduction procedure for dynamic ensemble selection
- arxiv url: http://arxiv.org/abs/2206.08455v1
- Date: Thu, 16 Jun 2022 21:31:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-21 07:15:39.700346
- Title: Local overlap reduction procedure for dynamic ensemble selection
- Title(参考訳): 動的アンサンブル選択のための局所重なり低減法
- Authors: Mariana A. Souza, Robert Sabourin, George D. C. Cavalcanti and Rafael
M. O. Cruz
- Abstract要約: クラス不均衡は、分類モデルにおいて学習をより困難にすることで知られる特徴である。
分類過程における局所クラス重複の影響を最小限に抑えるDS手法を提案する。
実験の結果,提案手法はベースラインを著しく上回ることがわかった。
- 参考スコア(独自算出の注目度): 13.304462985219237
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class imbalance is a characteristic known for making learning more
challenging for classification models as they may end up biased towards the
majority class. A promising approach among the ensemble-based methods in the
context of imbalance learning is Dynamic Selection (DS). DS techniques single
out a subset of the classifiers in the ensemble to label each given unknown
sample according to their estimated competence in the area surrounding the
query. Because only a small region is taken into account in the selection
scheme, the global class disproportion may have less impact over the system's
performance. However, the presence of local class overlap may severely hinder
the DS techniques' performance over imbalanced distributions as it not only
exacerbates the effects of the under-representation but also introduces
ambiguous and possibly unreliable samples to the competence estimation process.
Thus, in this work, we propose a DS technique which attempts to minimize the
effects of the local class overlap during the classifier selection procedure.
The proposed method iteratively removes from the target region the instance
perceived as the hardest to classify until a classifier is deemed competent to
label the query sample. The known samples are characterized using instance
hardness measures that quantify the local class overlap. Experimental results
show that the proposed technique can significantly outperform the baseline as
well as several other DS techniques, suggesting its suitability for dealing
with class under-representation and overlap. Furthermore, the proposed
technique still yielded competitive results when using an under-sampled, less
overlapped version of the labelled sets, specially over the problems with a
high proportion of minority class samples in overlap areas. Code available at
https://github.com/marianaasouza/lords.
- Abstract(参考訳): クラス不均衡(class unbalance)は、学習が多数派クラスに偏りがちであるため、分類モデルの学習をより困難にする特徴である。
不均衡学習の文脈におけるアンサンブルベース手法間の有望なアプローチは動的選択(ds)である。
DS技術は、アンサンブル内の分類器のサブセットを抽出し、クエリを取り巻く領域における推定能力に応じて、与えられた未知のサンプルをラベル付けする。
選択スキームでは小さな領域のみが考慮されるため、グローバルクラスの不均衡はシステム性能への影響を少なくする可能性がある。
しかし,局所クラス重なりの存在は,不均衡分布に対するds技術の性能を著しく阻害する可能性がある。
そこで本研究では,分類器選択手順における局所クラス重なりの影響を最小限に抑えるds手法を提案する。
提案手法は,問合せサンプルをラベル付けする能力が認められるまで,最も分類が難しいと認識されたインスタンスを対象領域から反復的に削除する。
既知のサンプルは、局所クラスオーバーラップを定量化するインスタンス硬度測定を用いて特徴づけられる。
実験結果から,提案手法はベースラインや他のDS手法よりも大幅に優れており,クラスアンダー表現や重複処理に適していることが示唆された。
さらに,提案手法は,ラベル付き集合のアンダーサンプルとアンダーサンプルを用いた場合,特に重複領域におけるマイノリティクラス標本の比率が高い問題に対して,競争結果を得た。
コードはhttps://github.com/marianaasouza/lordsで利用可能。
関連論文リスト
- Confronting Discrimination in Classification: Smote Based on
Marginalized Minorities in the Kernel Space for Imbalanced Data [0.0]
決定境界とサンプル近接関係に基づく新しい分類オーバーサンプリング手法を提案する。
提案手法を古典的金融詐欺データセットで検証する。
論文 参考訳(メタデータ) (2024-02-13T04:03:09Z) - Towards Fast and Stable Federated Learning: Confronting Heterogeneity
via Knowledge Anchor [18.696420390977863]
本稿では,異なる通信ラウンド間の局所訓練において,各クラスを忘れる程度を系統的に分析する。
これらの知見に触発され,FedKA(Federated Knowledge Anchor)と呼ばれる新しい,簡単なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-05T01:12:56Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Ambiguity-Resistant Semi-Supervised Learning for Dense Object Detection [98.66771688028426]
本研究では,一段階検出器のためのAmbiguity-Resistant Semi-supervised Learning (ARSL)を提案する。
擬似ラベルの分類とローカライズ品質を定量化するために,JCE(Joint-Confidence Estimation)を提案する。
ARSLは、曖昧さを効果的に軽減し、MS COCOおよびPASCALVOC上で最先端のSSOD性能を達成する。
論文 参考訳(メタデータ) (2023-03-27T07:46:58Z) - Boosting Few-Shot Text Classification via Distribution Estimation [38.99459686893034]
そこで本稿では,未ラベルの問合せサンプルを用いて,新しいクラスの分布を推定する,単純かつ効果的な2つの手法を提案する。
具体的には、まずクラスまたはサンプルをガウス分布に従って仮定し、元のサポートセットと最も近いクエリサンプルを使用する。
そして,推定分布から抽出したラベル付きサンプルを増量し,分類モデルの訓練に十分な監督力を与える。
論文 参考訳(メタデータ) (2023-03-26T05:58:39Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Class-Imbalanced Complementary-Label Learning via Weighted Loss [8.934943507699131]
補完ラベル学習(Complementary-label Learning, CLL)は、弱い教師付き分類において広く用いられている。
クラス不均衡のトレーニングサンプルに直面すると、現実世界のデータセットでは大きな課題に直面します。
多クラス分類のためのクラス不均衡補完ラベルからの学習を可能にする新しい問題設定を提案する。
論文 参考訳(メタデータ) (2022-09-28T16:02:42Z) - Centrality and Consistency: Two-Stage Clean Samples Identification for
Learning with Instance-Dependent Noisy Labels [87.48541631675889]
本稿では,2段階のクリーンサンプル識別手法を提案する。
まず,クリーンサンプルの早期同定にクラスレベルの特徴クラスタリング手法を用いる。
次に, 基底真理クラス境界に近い残余のクリーンサンプルについて, 一貫性に基づく新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-07-29T04:54:57Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Beyond cross-entropy: learning highly separable feature distributions
for robust and accurate classification [22.806324361016863]
本稿では, 対角的ロバスト性を提供する, ディープロバストなマルチクラス分類器を訓練するための新しい手法を提案する。
提案手法に基づく潜在空間の正則化は,優れた分類精度が得られることを示す。
論文 参考訳(メタデータ) (2020-10-29T11:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。