論文の概要: Class-Aware Universum Inspired Re-Balance Learning for Long-Tailed
Recognition
- arxiv url: http://arxiv.org/abs/2207.12808v1
- Date: Tue, 26 Jul 2022 11:03:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 12:47:04.441321
- Title: Class-Aware Universum Inspired Re-Balance Learning for Long-Tailed
Recognition
- Title(参考訳): ロングテール認識のためのクラスアウェアユニバーサムによる再バランス学習
- Authors: Enhao Zhang, Chuanxing Geng, and Songcan Chen
- Abstract要約: 長期認識のためのクラス認識大学インスパイアされた再バランス学習(CaUIRL)
外部データに頼らずにクラス認識ユニバーサム(CaU)データを自動生成する高次混合手法を開発した。
- 参考スコア(独自算出の注目度): 24.35287225775304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data augmentation for minority classes is an effective strategy for
long-tailed recognition, thus developing a large number of methods. Although
these methods all ensure the balance in sample quantity, the quality of the
augmented samples is not always satisfactory for recognition, being prone to
such problems as over-fitting, lack of diversity, semantic drift, etc. For
these issues, we propose the Class-aware Universum Inspired Re-balance
Learning(CaUIRL) for long-tailed recognition, which endows the Universum with
class-aware ability to re-balance individual minority classes from both sample
quantity and quality. In particular, we theoretically prove that the
classifiers learned by CaUIRL are consistent with those learned under the
balanced condition from a Bayesian perspective. In addition, we further develop
a higher-order mixup approach, which can automatically generate class-aware
Universum(CaU) data without resorting to any external data. Unlike the
traditional Universum, such generated Universum additionally takes the domain
similarity, class separability, and sample diversity into account. Extensive
experiments on benchmark datasets demonstrate the surprising advantages of our
method, especially the top1 accuracy in minority classes is improved by 1.9% 6%
compared to the state-of-the-art method.
- Abstract(参考訳): マイノリティクラスのためのデータ拡張は、ロングテール認識のための効果的な戦略であり、多くの方法を開発した。
これらの手法はすべてサンプル量のバランスを保証するが、拡張されたサンプルの品質は常に認識に満足せず、過剰フィッティングや多様性の欠如、意味的ドリフトといった問題を引き起こす。
そこで,本研究では,個別のマイノリティクラスをサンプル量と品質の両方から再バランスさせるクラス認識能力を備えたロングテール認識のためのクラス認識ユニバーサム(cauirl)を提案する。
特に、理論的には、CaUIRLによって学習された分類器は、ベイズの観点からの平衡条件下での学習と一致している。
さらに,外部データを使わずにクラス対応のuniversum(cau)データを自動的に生成できる高次ミックスアップ手法も開発している。
従来のUniversumとは異なり、そのような生成されたUniversumはドメインの類似性、クラス分離性、サンプルの多様性を考慮に入れている。
特にマイノリティクラスにおけるtop1の精度は,最先端の手法と比較して1.9%向上した。
関連論文リスト
- Exploring Vacant Classes in Label-Skewed Federated Learning [113.65301899666645]
クライアント間の局所的なラベル分布の相違を特徴とするラベルスキューは、連合学習において大きな課題となる。
本稿では, ラベルスキュード・フェデレート学習における新しい手法であるFedVLSについて紹介する。
論文 参考訳(メタデータ) (2024-01-04T16:06:31Z) - CUDA: Curriculum of Data Augmentation for Long-Tailed Recognition [10.441880303257468]
クラス不均衡問題は現実世界のタスクで頻繁に発生する。
この問題を軽減するために、多くのアプローチがトレーニングサンプルの再重み付けや再サンプリングによって、各クラス間でバランスをとることを目標にしている。
これらの再バランス手法は、マイノリティクラスの影響を増大させ、モデルの出力に対する多数派クラスの影響を減少させる。
多数サンプルの特徴によって少数サンプルの表現を増大させる手法が開発されている。
論文 参考訳(メタデータ) (2023-02-10T20:30:22Z) - Constructing Balance from Imbalance for Long-tailed Image Recognition [50.6210415377178]
多数派(頭)クラスと少数派(尾)クラスの不均衡は、データ駆動のディープニューラルネットワークを著しく歪ませる。
従来の手法では、データ分散、特徴空間、モデル設計の観点からデータ不均衡に対処していた。
ラベル空間を段階的に調整し,ヘッドクラスとテールクラスを分割することで,簡潔なパラダイムを提案する。
提案モデルでは,特徴評価手法も提供し,長期的特徴学習の道を開く。
論文 参考訳(メタデータ) (2022-08-04T10:22:24Z) - Long-tail Recognition via Compositional Knowledge Transfer [60.03764547406601]
末尾クラスの少数ショット問題に対処する長尾認識のための新しい戦略を導入する。
我々の目標は、情報に富んだ共通クラスから得られた知識を、意味的に類似しているがデータに富む稀なクラスに伝達することである。
実験結果から,本手法は稀なクラスにおいて,堅牢な共通クラス性能を維持しつつ,大幅な性能向上を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-13T15:48:59Z) - Targeted Supervised Contrastive Learning for Long-Tailed Recognition [50.24044608432207]
実世界のデータは、しばしば重いクラス不均衡の長い尾の分布を示す。
教師付きコントラスト学習は性能向上に寄与するが、過去のベースラインは不均衡なデータ分布によってもたらされる不均一さに悩まされている。
我々は,超球面上の特徴分布の均一性を改善するための教師付きコントラスト学習(TSC)を提案する。
論文 参考訳(メタデータ) (2021-11-27T22:40:10Z) - Long-Tailed Recognition Using Class-Balanced Experts [128.73438243408393]
本稿では,多様な分類器の強度を組み合わせたクラスバランスの専門家のアンサンブルを提案する。
私たちのクラスバランスの専門家のアンサンブルは、最先端に近い結果に到達し、長い尾の認識のための2つのベンチマークで新たな最先端のアンサンブルを確立します。
論文 参考訳(メタデータ) (2020-04-07T20:57:44Z) - Imbalanced Data Learning by Minority Class Augmentation using Capsule
Adversarial Networks [31.073558420480964]
本稿では,2つの同時手法を合体させて,不均衡な画像のバランスを回復する手法を提案する。
我々のモデルでは、生成的および識別的ネットワークは、新しい競争力のあるゲームをする。
カプセルGANの合体は、畳み込みGANと比較して非常に少ないパラメータで重なり合うクラスを認識するのに効果的である。
論文 参考訳(メタデータ) (2020-04-05T12:36:06Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。