論文の概要: Towards Inter-class and Intra-class Imbalance in Class-imbalanced
Learning
- arxiv url: http://arxiv.org/abs/2111.12791v1
- Date: Wed, 24 Nov 2021 20:50:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 15:26:52.566805
- Title: Towards Inter-class and Intra-class Imbalance in Class-imbalanced
Learning
- Title(参考訳): クラス不均衡学習におけるクラス間不均衡とクラス内不均衡
- Authors: Zhining Liu, Pengfei Wei, Zhepei Wei, Boyang Yu, Jing Jiang, Wei Cao,
Jiang Bian and Yi Chang
- Abstract要約: 不均衡学習(IL)は、データマイニングアプリケーションに広く存在する重要な問題である。
本稿では,多目的アンサンブル学習フレームワークである Duple-Balanced Ensemble について述べる。
一般的な手法とは異なり、DUBEは、重い距離ベースの計算に頼ることなく、クラス間およびクラス内バランスを直接実行する。
- 参考スコア(独自算出の注目度): 24.01370257373491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Imbalanced Learning (IL) is an important problem that widely exists in data
mining applications. Typical IL methods utilize intuitive class-wise resampling
or reweighting to directly balance the training set. However, some recent
research efforts in specific domains show that class-imbalanced learning can be
achieved without class-wise manipulation. This prompts us to think about the
relationship between the two different IL strategies and the nature of the
class imbalance. Fundamentally, they correspond to two essential imbalances
that exist in IL: the difference in quantity between examples from different
classes as well as between easy and hard examples within a single class, i.e.,
inter-class and intra-class imbalance. Existing works fail to explicitly take
both imbalances into account and thus suffer from suboptimal performance. In
light of this, we present Duple-Balanced Ensemble, namely DUBE , a versatile
ensemble learning framework. Unlike prevailing methods, DUBE directly performs
inter-class and intra-class balancing without relying on heavy distance-based
computation, which allows it to achieve competitive performance while being
computationally efficient. We also present a detailed discussion and analysis
about the pros and cons of different inter/intra-class balancing strategies
based on DUBE . Extensive experiments validate the effectiveness of the
proposed method. Code and examples are available at
https://github.com/ICDE2022Sub/duplebalance.
- Abstract(参考訳): 不均衡学習(IL)は、データマイニングアプリケーションに広く存在する重要な問題である。
典型的なILメソッドは、トレーニングセットを直接バランスをとるために、直感的なクラスワイドリサンプリングまたはリウェイトを利用する。
しかし、特定の領域における最近の研究により、クラス間操作なしにクラス不均衡学習が実現可能であることが示されている。
これにより、2つの異なるil戦略とクラス不均衡の性質の関係について考えることができます。
基本的には、IL に存在する2つの本質的な不均衡に対応する:異なるクラスからの例と1つのクラスにおける簡単な例と難しい例、すなわちクラス間の不均衡とクラス内の不均衡の間の量の違い。
既存の作品は、両方の不均衡を明示的に考慮しないため、最適でないパフォーマンスに苦しむ。
そこで本研究では,多目的アンサンブル学習フレームワークである Duple-Balanced Ensemble について述べる。
一般的な手法とは異なり、DUBEは、重度距離ベースの計算に頼ることなく、クラス間およびクラス内バランスを直接実行し、計算効率を向上しながら競合性能を達成する。
また,dubeに基づく異種間バランス戦略の長所と短所について,詳細な議論と分析を行った。
広範な実験により,提案手法の有効性が検証された。
コードとサンプルはhttps://github.com/icde2022sub/duplebalance.comで入手できる。
関連論文リスト
- BaCon: Boosting Imbalanced Semi-supervised Learning via Balanced Feature-Level Contrastive Learning [0.9160375060389779]
クラス不均衡半教師学習(CISSL)では、信頼できない擬似ラベルによって引き起こされるバイアスは、不均衡なデータ分布によって悪化させることができる。
提案手法は、よく設計されたコントラスト的な方法で、インスタンスの表現の分布を直接正規化する。
提案手法は, CIFAR10-LT, CIFAR100-LT, STL10-LT, SVHN-LTデータセットの包括的実験により有効性を示す。
論文 参考訳(メタデータ) (2024-03-04T06:43:16Z) - Simplifying Neural Network Training Under Class Imbalance [77.39968702907817]
実世界のデータセットは、しばしば高いクラス不均衡であり、ディープラーニングモデルのパフォーマンスに悪影響を及ぼす可能性がある。
クラス不均衡下でのニューラルネットワークのトレーニングに関する研究の大部分は、特殊な損失関数、サンプリング技術、または2段階のトレーニング手順に焦点を当てている。
バッチサイズやデータ拡張,ラベルの平滑化といった,標準的なディープラーニングパイプラインの既存のコンポーネントを単にチューニングするだけで,そのような特殊なクラス不均衡な手法を使わずに,最先端のパフォーマンスを達成できることを実証する。
論文 参考訳(メタデータ) (2023-12-05T05:52:44Z) - Class Uncertainty: A Measure to Mitigate Class Imbalance [0.0]
授業の基数のみを考慮すると、クラス不均衡の原因となるすべての問題をカバーできるわけではない。
トレーニング事例の予測的不確実性の平均値として「クラス不確実性」を提案する。
また,SVCI-20は,クラスが同じ数のトレーニングサンプルを持つが,それらの硬さの点で異なる,新しいデータセットとしてキュレートする。
論文 参考訳(メタデータ) (2023-11-23T16:36:03Z) - Class-Imbalanced Graph Learning without Class Rebalancing [62.1368829847041]
クラス不均衡は実世界のノード分類タスクでよく見られ、グラフ学習モデルには大きな課題がある。
本研究では、トポロジカルパラダイムからクラス不均衡バイアスの根本原因にアプローチする。
我々は,クラス再バランスを伴わずにクラス不均衡バイアスを軽減するために,軽量なトポロジカル拡張フレームワークであるBATを考案した。
論文 参考訳(メタデータ) (2023-08-27T19:01:29Z) - Rethinking Class Imbalance in Machine Learning [1.4467794332678536]
不均衡学習は、クラス不均衡の存在下での学習タスクに焦点を当てた機械学習のサブフィールドである。
本研究では,機械学習におけるクラス不均衡の新しい分類法を提案する。
比例, 分散, 距離不均衡が同時に存在する場合に, 対数摂動に基づく新たな不均衡学習損失を提案する。
論文 参考訳(メタデータ) (2023-05-06T02:36:39Z) - An Embarrassingly Simple Baseline for Imbalanced Semi-Supervised
Learning [103.65758569417702]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルのパフォーマンスを向上させるという大きな約束を示している。
我々は、ラベル付きデータとラベルなしデータの両方で不均衡なクラス分散が発生する不均衡SSLという、より現実的で困難な設定について検討する。
我々は、ラベル付きデータを擬似ラベルで単純に補うことで、データの不均衡に取り組む単純なベースライン、SimiSについて研究する。
論文 参考訳(メタデータ) (2022-11-20T21:18:41Z) - Deep Reinforcement Learning for Multi-class Imbalanced Training [64.9100301614621]
我々は、極めて不均衡なデータセットをトレーニングするために、強化学習に基づく不均衡な分類フレームワークを導入する。
特注報酬関数とエピソード学習手順を定式化し、特にマルチクラス不均衡トレーニングを扱えるようにした。
実世界の臨床ケーススタディを用いて,提案手法が現状の非バランス学習法より優れていることを示す。
論文 参考訳(メタデータ) (2022-05-24T13:39:59Z) - Neural Collapse Inspired Attraction-Repulsion-Balanced Loss for
Imbalanced Learning [97.81549071978789]
勾配の異なる成分のバランスをとるために,Attraction-Repulsion-Balanced Loss (ARB-Loss)を提案する。
大規模分類とセグメンテーションデータセットの実験を行い、ARB-Lossは最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-04-19T08:23:23Z) - Imbalanced Adversarial Training with Reweighting [33.51820466479575]
学習データセットが不均衡である場合、逆向きに訓練されたモデルは、表現不足のクラスでは、はるかにパフォーマンスが悪くなる可能性があることを示す。
従来の再重み付け戦略は、敵の訓練の不均衡問題に対処する効果を失う可能性がある。
本研究では,不均衡シナリオ下での対人訓練を容易にするために,SRAT(Separable Reweighted Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2021-07-28T20:51:36Z) - Few-Shot Learning with Class Imbalance [13.60699610822265]
少数ショット学習は、クエリセットから取得したサンプルを一般化するために、サポートセットに与えられた限られた数のラベル付きサンプルでモデルをトレーニングすることを目的としている。
標準設定では、サポートセットは各クラスに対して等しい量のデータポイントを含んでいる。
本稿では,メタデータセット対タスク不均衡,異なる不均衡分布の効果(線形,ステップ,ランダム),再バランス手法の効果の3つの軸に沿ったクラス不均衡について詳細に検討する。
論文 参考訳(メタデータ) (2021-01-07T12:54:32Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。