論文の概要: Class-wise Flooding Regularization for Imbalanced Image Classification
- arxiv url: http://arxiv.org/abs/2508.18723v1
- Date: Tue, 26 Aug 2025 06:40:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.706205
- Title: Class-wise Flooding Regularization for Imbalanced Image Classification
- Title(参考訳): 不均衡画像分類のためのクラスワイドフラッド正規化
- Authors: Hiroaki Aizawa, Yuta Naito, Kohei Fukuda,
- Abstract要約: 不均衡なデータセットでトレーニングすると、モデルの予測は少数クラスよりも多数クラスを好む傾向にある。
クラスレベルで適用された浸水正規化の拡張である,クラスワイドの浸水正規化を提案する。
従来の洪水正規化と比較して,本手法はマイノリティクラスの分類性能を向上し,全体的な一般化を向上する。
- 参考スコア(独自算出の注目度): 0.3823356975862005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The purpose of training neural networks is to achieve high generalization performance on unseen inputs. However, when trained on imbalanced datasets, a model's prediction tends to favor majority classes over minority classes, leading to significant degradation in the recognition performance of minority classes. To address this issue, we propose class-wise flooding regularization, an extension of flooding regularization applied at the class level. Flooding is a regularization technique that mitigates overfitting by preventing the training loss from falling below a predefined threshold, known as the flooding level, thereby discouraging memorization. Our proposed method assigns a class-specific flooding level based on class frequencies. By doing so, it suppresses overfitting in majority classes while allowing sufficient learning for minority classes. We validate our approach on imbalanced image classification. Compared to conventional flooding regularizations, our method improves the classification performance of minority classes and achieves better overall generalization.
- Abstract(参考訳): ニューラルネットワークのトレーニングの目的は、目に見えない入力に対して高い一般化性能を達成することである。
しかし、不均衡なデータセットで訓練すると、モデルの予測はマイノリティクラスよりも多数派クラスを好む傾向にあり、マイノリティクラスの認識性能が著しく低下する。
この問題に対処するために,クラスレベルで適用された洪水正規化の拡張であるクラスワイド洪水正規化を提案する。
フラッディング(Flooding)は、トレーニング損失が洪水レベルと呼ばれる予め定義された閾値以下に落ちないようにすることで過度な適合を緩和し、記憶を阻害する正規化技術である。
提案手法は,クラス周波数に基づいて,クラス固有の洪水レベルを割り当てる。
これにより、マイノリティクラスに対する十分な学習を可能にしながら、多数派クラスの過度な適合を抑制する。
不均衡な画像分類に対する我々のアプローチを検証する。
従来の洪水正規化と比較して,本手法はマイノリティクラスの分類性能を向上し,全体的な一般化を向上する。
関連論文リスト
- Exploring Vacant Classes in Label-Skewed Federated Learning [113.65301899666645]
本稿では,ラベルスキュード・フェデレーション学習の新しいアプローチであるFedVLSを紹介する。
空のクラス蒸留とロジット抑制を同時に統合する。
FedVLSの有効性を検証する実験は、従来のSOTA(State-of-the-art)法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-04T16:06:31Z) - Few-Shot Class-Incremental Learning via Training-Free Prototype
Calibration [67.69532794049445]
既存のメソッドでは、新しいクラスのサンプルをベースクラスに誤分類する傾向があり、新しいクラスのパフォーマンスが低下する。
我々は,新しいクラスの識別性を高めるため,簡易かつ効果的なトレーニング-フレア・カロブラシアン (TEEN) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-08T18:24:08Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - No One Left Behind: Improving the Worst Categories in Long-Tailed
Learning [29.89394406438639]
このような評価設定の下では、いくつかのカテゴリは必然的に犠牲にされます。
多様な手法に適用可能な簡易なプラグイン法を提案する。
論文 参考訳(メタデータ) (2023-03-07T03:24:54Z) - Shift Happens: Adjusting Classifiers [2.8682942808330703]
ブレアスコアやログロス(クロスエントロピー)のような適切なスコアリングルールによって測定される期待損失を最小限に抑えることは、確率的分類器を訓練する際の共通の目的である。
本稿では,全ての予測を平均予測とクラス分布に等化させる手法を提案する。
実際に、クラス分布が概ね知られている場合、シフトの量やクラス分布が知られている精度に応じて、損失が減少することがしばしばあることを実験によって実証した。
論文 参考訳(メタデータ) (2021-11-03T21:27:27Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z) - Multi-category Angle-based Classifier Refit [5.7656008321403585]
高次元の低サンプルサイズ問題はますます人気が高まっている。
バイナリ分類器の場合、一般的に使用される手法は分類関数のノルムを過小評価する傾向がある。
高次元の応用において、重い正則化項がしばしば必要とされる理由に関する理論的洞察を与える。
論文 参考訳(メタデータ) (2016-07-19T19:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。