論文の概要: M2m: Imbalanced Classification via Major-to-minor Translation
- arxiv url: http://arxiv.org/abs/2004.00431v2
- Date: Sun, 20 Dec 2020 10:48:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 17:41:42.752436
- Title: M2m: Imbalanced Classification via Major-to-minor Translation
- Title(参考訳): M2m:大小翻訳による不均衡分類
- Authors: Jaehyung Kim, Jongheon Jeong, Jinwoo Shin
- Abstract要約: ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
- 参考スコア(独自算出の注目度): 79.09018382489506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In most real-world scenarios, labeled training datasets are highly
class-imbalanced, where deep neural networks suffer from generalizing to a
balanced testing criterion. In this paper, we explore a novel yet simple way to
alleviate this issue by augmenting less-frequent classes via translating
samples (e.g., images) from more-frequent classes. This simple approach enables
a classifier to learn more generalizable features of minority classes, by
transferring and leveraging the diversity of the majority information. Our
experimental results on a variety of class-imbalanced datasets show that the
proposed method improves the generalization on minority classes significantly
compared to other existing re-sampling or re-weighting methods. The performance
of our method even surpasses those of previous state-of-the-art methods for the
imbalanced classification.
- Abstract(参考訳): ほとんどの現実のシナリオでは、ラベル付きトレーニングデータセットは高度にクラス不均衡であり、ディープニューラルネットワークは、バランスのとれたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからサンプル(画像など)を翻訳することで,この問題を緩和する新しい方法を提案する。
この単純なアプローチにより、分類器は多数派の情報の多様性を移し活用することで、マイノリティクラスのより一般化可能な特徴を学ぶことができる。
様々なクラス不均衡データセットを用いた実験の結果,提案手法が既存の再サンプリング法や重み付け法に比べてマイノリティクラスの一般化を著しく改善していることがわかった。
この手法の性能は,従来の非バランスな分類法よりも優れていた。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Exploring Vacant Classes in Label-Skewed Federated Learning [113.65301899666645]
クライアント間の局所的なラベル分布の相違を特徴とするラベルスキューは、連合学習において大きな課題となる。
本稿では, ラベルスキュード・フェデレート学習における新しい手法であるFedVLSについて紹介する。
論文 参考訳(メタデータ) (2024-01-04T16:06:31Z) - Deep Similarity Learning Loss Functions in Data Transformation for Class
Imbalance [2.693342141713236]
本稿では、ディープニューラルネットワークを用いて、マルチクラスデータの新しい表現を学習する。
本提案では,学習した組込み表現における例の位置などの特徴の分布を修正し,クラスサイズを変更しない。
マルチクラス不均衡ベンチマークデータセットと3つの分類器を用いた実験は,提案手法の利点を示した。
論文 参考訳(メタデータ) (2023-12-16T23:10:09Z) - A Unified Generalization Analysis of Re-Weighting and Logit-Adjustment
for Imbalanced Learning [129.63326990812234]
そこで本研究では,データ依存型コンダクタンス(Data-dependent contraction)と呼ばれる手法を提案する。
この技術に加えて、不均衡学習のための微粒な一般化境界が確立され、再重み付けとロジット調整の謎を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-10-07T09:15:08Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Imbalanced Classification via a Tabular Translation GAN [4.864819846886142]
本稿では,多数のサンプルを対応する合成マイノリティ標本にマッピングするために,新たな正規化損失を用いたジェネレーティブ・アドバイサル・ネットワークに基づくモデルを提案する。
提案手法は, 再加重法やオーバーサンプリング法と比較して, 平均精度を向上することを示す。
論文 参考訳(メタデータ) (2022-04-19T06:02:53Z) - Imbalanced Classification via Explicit Gradient Learning From Augmented
Data [0.0]
本稿では、与えられた不均衡なデータセットを新しいマイノリティインスタンスに拡張する、新しい深層メタラーニング手法を提案する。
提案手法の利点は, 種々の不均衡比を持つ合成および実世界のデータセット上で実証される。
論文 参考訳(メタデータ) (2022-02-21T22:16:50Z) - PLM: Partial Label Masking for Imbalanced Multi-label Classification [59.68444804243782]
長いラベルの分布を持つ実世界のデータセットで訓練されたニューラルネットワークは、頻繁なクラスに偏りがあり、頻繁なクラスでは不十分である。
本稿では,この比率を利用したPLM(Partial Label Masking)を提案する。
本手法は,マルチラベル (MultiMNIST と MSCOCO) とシングルラベル (CIFAR-10 と CIFAR-100) の2つの画像分類データセットにおいて,既存の手法と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2021-05-22T18:07:56Z) - A Novel Adaptive Minority Oversampling Technique for Improved
Classification in Data Imbalanced Scenarios [23.257891827728827]
異なるクラスに属するトレーニングサンプルの割合の不均衡は、しばしば従来の分類器の性能低下を引き起こす。
不均衡なデータに対処する新しい3ステップ手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T09:58:02Z) - Minority Class Oversampling for Tabular Data with Deep Generative Models [4.976007156860967]
オーバーサンプリングによる非バランスな分類タスクの性能向上を図るために, 深層生成モデルを用いて現実的なサンプルを提供する能力について検討した。
実験の結果,サンプリング手法は品質に影響を与えないが,実行環境は様々であることがわかった。
また、性能指標の点でも改善が重要であるが、絶対的な点では小さな点がしばしば見られる。
論文 参考訳(メタデータ) (2020-05-07T21:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。