論文の概要: ART: Adaptive Resampling-based Training for Imbalanced Classification
- arxiv url: http://arxiv.org/abs/2509.00955v1
- Date: Sun, 31 Aug 2025 18:20:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.47747
- Title: ART: Adaptive Resampling-based Training for Imbalanced Classification
- Title(参考訳): ART:不均衡分類のための適応型再サンプリングベーストレーニング
- Authors: Arjun Basandrai, Shourya Jain, K. Ilanthenral,
- Abstract要約: 本稿では,クラス不均衡を扱うための適応型再サンプリングベーストレーニング(ART)手法を提案する。
ARTは、モデルのクラスワイドのパフォーマンスに基づいて、トレーニングデータの配信を定期的に更新する。
さまざまなベンチマークの結果、ARTは再サンプリングベースの手法とアルゴリズムレベルの手法の両方で一貫して優れています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional resampling methods for handling class imbalance typically uses fixed distributions, undersampling the majority or oversampling the minority. These static strategies ignore changes in class-wise learning difficulty, which can limit the overall performance of the model. This paper proposes an Adaptive Resampling-based Training (ART) method that periodically updates the distribution of the training data based on the class-wise performance of the model. Specifically, ART uses class-wise macro F1 scores, computed at fixed intervals, to determine the degree of resampling to be performed. Unlike instance-level difficulty modeling, which is noisy and outlier-sensitive, ART adapts at the class level. This allows the model to incrementally shift its attention towards underperforming classes in a way that better aligns with the optimization objective. Results on diverse benchmarks, including Pima Indians Diabetes and Yeast dataset demonstrate that ART consistently outperforms both resampling-based and algorithm-level methods, including Synthetic Minority Oversampling Technique (SMOTE), NearMiss Undersampling, and Cost-sensitive Learning on binary as well as multi-class classification tasks with varying degrees of imbalance. In most settings, these improvements are statistically significant. On tabular datasets, gains are significant under paired t-tests and Wilcoxon tests (p < 0.05), while results on text and image tasks remain favorable. Compared to training on the original imbalanced data, ART improves macro F1 by an average of 2.64 percentage points across all tested tabular datasets. Unlike existing methods, whose performance varies by task, ART consistently delivers the strongest macro F1, making it a reliable choice for imbalanced classification.
- Abstract(参考訳): クラス不均衡を扱う従来の再サンプリング手法は、通常は固定分布を使用し、多数派をアンサンプするか、少数派をオーバーサンプリングする。
これらの静的戦略は、クラスレベルの学習困難の変化を無視し、モデル全体のパフォーマンスを制限します。
本稿では、モデルのクラスワイド性能に基づいて、トレーニングデータの分布を定期的に更新する適応型再サンプリングベーストレーニング(ART)手法を提案する。
具体的には、ARTは、一定間隔で計算されるクラスワイドマクロF1スコアを使用して、再サンプリングの度合いを決定する。
インスタンスレベルの難易度モデリングとは異なり、ARTはクラスレベルで適応する。
これにより、最適化の目的とよく一致した方法で、モデルがその注意を過小評価クラスに段階的にシフトすることができる。
Pima Indians DiabetesやYeastのデータセットなど、さまざまなベンチマークの結果によると、ARTは、SMOTE(Synthetic Minority Oversampling Technique)、NearMiss Undersampling(NearMiss Undersampling)、Cost-sensitive Learning(Cost-sensitive Learning on binary)など、再サンプリングベースのメソッドとアルゴリズムレベルのメソッドの両方を一貫して上回っている。
ほとんどの設定では、これらの改善は統計的に重要である。
表形式のデータセットでは、ペアのt-testとWilcoxonテスト(p < 0.05)ではゲインが大きく、テキストや画像タスクの結果は引き続き好ましい。
オリジナルの不均衡データのトレーニングと比較すると、ARTはテスト済みのグラフデータセット全体で平均2.64ポイントのマクロF1を改善している。
タスクによってパフォーマンスが変わる既存の方法とは異なり、ARTは最強のマクロF1を一貫して提供し、不均衡な分類のための信頼性の高い選択となる。
関連論文リスト
- AHDMIL: Asymmetric Hierarchical Distillation Multi-Instance Learning for Fast and Accurate Whole-Slide Image Classification [51.525891360380285]
AHDMILは非対称な階層的蒸留マルチインスタンス学習フレームワークである。
2段階のトレーニングプロセスを通じて、無関係なパッチを排除します。
分類性能と推論速度の両方において、従来の最先端手法を一貫して上回っている。
論文 参考訳(メタデータ) (2025-08-07T07:47:16Z) - Ensemble Debiasing Across Class and Sample Levels for Fairer Prompting Accuracy [17.610305828703957]
言語モデルは、強力な数発の学習者であり、テキスト分類タスクにおいて、全体的な精度が良好である。
我々は、全体的な精度の追求は、強い階級を豊かにするだけでなく、弱い階級を育てることによってもたらされると信じている。
本論文では,文脈内学習クラス確率のフレキシブルな修正を可能にするHeaviside Step関数に基づくアンサンブルデバイアス法を提案する。
論文 参考訳(メタデータ) (2025-03-07T05:34:31Z) - A replica analysis of under-bagging [3.1274367448459253]
Under-bagging (UB) は、不均衡なデータに基づいて分類器を訓練するための一般的なアンサンブル学習手法である。
アンダーサンプリングによる試料径の減少による分散の増大を抑えるためにバッジを用いることは自然なアプローチである。
近年、一般化線形モデルでは、クラス不均衡構造を考慮しない単純バッグングとリッジ正則化が同じ結果をもたらすことが指摘されている。
論文 参考訳(メタデータ) (2024-04-15T13:31:31Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Bias Mitigating Few-Shot Class-Incremental Learning [17.185744533050116]
クラス増分学習は,限定された新規クラスサンプルを用いて,新規クラスを継続的に認識することを目的としている。
最近の手法では,段階的なセッションで特徴抽出器を微調整することにより,ベースクラスとインクリメンタルクラスの精度の不均衡を緩和している。
本研究では,FSCIL問題におけるモデルバイアスを緩和する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-01T10:37:41Z) - Smooth Ranking SVM via Cutting-Plane Method [6.946903076677842]
我々は,AUCを最大化するために,Randing SVMと類似した切削平面法に依存するプロトタイプ学習手法を開発した。
本アルゴリズムは,切削面を反復的に導入することで,より単純なモデルを学ぶ。
73のバイナリ分類データセットを用いて行った実験から,本手法は競合する25のデータセットの中で最高のAUCが得られる。
論文 参考訳(メタデータ) (2024-01-25T18:47:23Z) - Uncertainty-aware Sampling for Long-tailed Semi-supervised Learning [89.98353600316285]
擬似ラベルサンプリングのモデル化プロセスに不確実性を導入し、各クラスにおけるモデル性能が異なる訓練段階によって異なることを考慮した。
このアプローチにより、モデルは異なる訓練段階における擬似ラベルの不確かさを認識でき、それによって異なるクラスの選択閾値を適応的に調整できる。
FixMatchのような他の手法と比較して、UDTSは自然シーン画像データセットの精度を少なくとも5.26%、1.75%、9.96%、1.28%向上させる。
論文 参考訳(メタデータ) (2024-01-09T08:59:39Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。