論文の概要: Global and Local Mixture Consistency Cumulative Learning for Long-tailed
Visual Recognitions
- arxiv url: http://arxiv.org/abs/2305.08661v1
- Date: Mon, 15 May 2023 14:09:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 14:14:33.048050
- Title: Global and Local Mixture Consistency Cumulative Learning for Long-tailed
Visual Recognitions
- Title(参考訳): 長期視覚認識のための大域的および局所的混合一貫性累積学習
- Authors: Fei Du, Peng Yang and Qi Jia and Fengtao Nan and Xiaoting Chen and Yun
Yang
- Abstract要約: 我々は,Global and Local Mixture Consistency cumulency Learning (GLMC) と呼ばれる,長距離視覚認識のための効率的なワンステージ学習戦略を提案する。
提案手法は, CIFAR10-LT, CIFAR100-LT, ImageNet-LTデータセットにおける最先端の精度を実現する。
- 参考スコア(独自算出の注目度): 8.925666400268502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, our goal is to design a simple learning paradigm for long-tail
visual recognition, which not only improves the robustness of the feature
extractor but also alleviates the bias of the classifier towards head classes
while reducing the training skills and overhead. We propose an efficient
one-stage training strategy for long-tailed visual recognition called Global
and Local Mixture Consistency cumulative learning (GLMC). Our core ideas are
twofold: (1) a global and local mixture consistency loss improves the
robustness of the feature extractor. Specifically, we generate two augmented
batches by the global MixUp and local CutMix from the same batch data,
respectively, and then use cosine similarity to minimize the difference. (2) A
cumulative head tail soft label reweighted loss mitigates the head class bias
problem. We use empirical class frequencies to reweight the mixed label of the
head-tail class for long-tailed data and then balance the conventional loss and
the rebalanced loss with a coefficient accumulated by epochs. Our approach
achieves state-of-the-art accuracy on CIFAR10-LT, CIFAR100-LT, and ImageNet-LT
datasets. Additional experiments on balanced ImageNet and CIFAR demonstrate
that GLMC can significantly improve the generalization of backbones. Code is
made publicly available at https://github.com/ynu-yangpeng/GLMC.
- Abstract(参考訳): 本稿では,特徴抽出器の頑健さを向上するだけでなく,学習スキルとオーバーヘッドを低減しつつ,分類器のヘッドクラスへの偏見を緩和する,ロングテール視覚認識のためのシンプルな学習パラダイムを設計することを目的とする。
グローバル・ローカル混合一貫性累積学習(glmc)と呼ばれる長期視覚認識のための効率的な一段階学習戦略を提案する。
1)大域的および局所的な混合整合性損失は特徴抽出器の堅牢性を向上させる。
具体的には,同一バッチデータからグローバルミックスアップとローカルカットミックスの2つの拡張バッチを生成し,コサイン類似性を用いて差分を最小化する。
2) 累積ヘッドテールソフトラベルの再加重損失は, ヘッドクラスのバイアス問題を緩和する。
経験的クラス周波数を用いて,ロングテールデータに対するヘッドテールクラスの混合ラベルの重み付けを行い,エポック累積係数による従来の損失と再バランス損失のバランスをとる。
提案手法は, CIFAR10-LT, CIFAR100-LT, ImageNet-LTデータセットにおける最先端の精度を実現する。
バランスの取れたImageNetとCIFARに関するさらなる実験は、GLMCがバックボーンの一般化を大幅に改善できることを示した。
コードはhttps://github.com/ynu-yangpeng/GLMCで公開されている。
関連論文リスト
- Class Instance Balanced Learning for Long-Tailed Classification [0.0]
ロングテール画像分類タスクは、トレーニングデータのクラス周波数における大きな不均衡を扱う。
従来のアプローチでは、クロスエントロピーとコントラスト学習を組み合わせることで、長いタスクのパフォーマンスが向上することが示されている。
学習バッチにおけるクラスインスタンスの頻度の関数として,クロスエントロピーと対照的な損失の相対的寄与を重み付けする新しいクラスインスタンス平衡損失(CIBL)を提案する。
論文 参考訳(メタデータ) (2023-07-11T15:09:10Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Towards Calibrated Hyper-Sphere Representation via Distribution Overlap
Coefficient for Long-tailed Learning [8.208237033120492]
ロングテール学習は、現実世界のシナリオにおいて、厳しいクラス不均衡の下で、ヘッドクラスがトレーニング手順を支配しているという課題に取り組むことを目的としている。
これを動機として、コサインに基づく分類器をフォン・ミセス・フィッシャー混合モデル(vMF)に一般化する。
分布重なり係数の計算により超球面上の表現品質を測定する。
論文 参考訳(メタデータ) (2022-08-22T03:53:29Z) - Long-Tailed Classification with Gradual Balanced Loss and Adaptive
Feature Generation [19.17617301462919]
本研究では,不均衡を緩和する新しい手法であるGradual Balanced Loss and Adaptive Feature Generator (GLAG)を提案する。
CIFAR100-LT、ImageNetLT、iNaturalistなどのロングテールデータセットで最先端の結果が得られた。
論文 参考訳(メタデータ) (2022-02-28T01:20:35Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Distributional Robustness Loss for Long-tail Learning [20.800627115140465]
現実世界のデータはしばしばアンバランスで長尾ですが、深いモデルは頻繁なクラスの存在下でまれなクラスを認識するのに苦労します。
ディープネットワークの特徴抽出器部分は,このバイアスに大きく悩まされていることを示す。
モデルが頭と尾の両方のクラスで高品質の表現を学ぶことを奨励するロバストネス理論に基づく新しい損失を提案します。
論文 参考訳(メタデータ) (2021-04-07T11:34:04Z) - ResLT: Residual Learning for Long-tailed Recognition [64.19728932445523]
本稿では,パラメータ空間の側面から,より基本的なロングテール認識の視点を提案する。
すべてのクラスから画像を認識するために最適化されたメインブランチと、medium+tailクラスとtailクラスからのイメージを強化するために徐々に2つの残りのブランチを融合して最適化する。
我々は、CIFAR-10、CIFAR-100、Places、ImageNet、iNaturalist 2018の長期バージョンであるいくつかのベンチマークでこの方法をテストする。
論文 参考訳(メタデータ) (2021-01-26T08:43:50Z) - Class-incremental Learning with Rectified Feature-Graph Preservation [24.098892115785066]
本論文の中心的なテーマは,逐次的な段階を経る新しいクラスを学習することである。
旧知識保存のための重み付きユークリッド正規化を提案する。
新しいクラスを効果的に学習するために、クラス分離を増やすためにバイナリクロスエントロピーでどのように機能するかを示す。
論文 参考訳(メタデータ) (2020-12-15T07:26:04Z) - Long-tailed Recognition by Routing Diverse Distribution-Aware Experts [64.71102030006422]
我々は、RoutIng Diverse Experts (RIDE) と呼ばれる新しい長い尾の分類器を提案する。
複数の専門家とのモデルの分散を減らし、分布を考慮した多様性損失によるモデルバイアスを減らし、動的専門家ルーティングモジュールによる計算コストを削減します。
RIDEは、CIFAR100-LT、ImageNet-LT、iNaturalist 2018ベンチマークで最先端を5%から7%上回っている。
論文 参考訳(メタデータ) (2020-10-05T06:53:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。