論文の概要: Calibrating Class Activation Maps for Long-Tailed Visual Recognition
- arxiv url: http://arxiv.org/abs/2108.12757v1
- Date: Sun, 29 Aug 2021 05:45:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:41:42.509574
- Title: Calibrating Class Activation Maps for Long-Tailed Visual Recognition
- Title(参考訳): 長期視覚認識のためのクラスアクティベーションマップの校正
- Authors: Chi Zhang, Guosheng Lin, Lvlong Lai, Henghui Ding, Qingyao Wu
- Abstract要約: 本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
- 参考スコア(独自算出の注目度): 60.77124328049557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world visual recognition problems often exhibit long-tailed
distributions, where the amount of data for learning in different categories
shows significant imbalance. Standard classification models learned on such
data distribution often make biased predictions towards the head classes while
generalizing poorly to the tail classes. In this paper, we present two
effective modifications of CNNs to improve network learning from long-tailed
distribution. First, we present a Class Activation Map Calibration (CAMC)
module to improve the learning and prediction of network classifiers, by
enforcing network prediction based on important image regions. The proposed
CAMC module highlights the correlated image regions across data and reinforces
the representations in these areas to obtain a better global representation for
classification. Furthermore, we investigate the use of normalized classifiers
for representation learning in long-tailed problems. Our empirical study
demonstrates that by simply scaling the outputs of the classifier with an
appropriate scalar, we can effectively improve the classification accuracy on
tail classes without losing the accuracy of head classes. We conduct extensive
experiments to validate the effectiveness of our design and we set new
state-of-the-art performance on five benchmarks, including ImageNet-LT,
Places-LT, iNaturalist 2018, CIFAR10-LT, and CIFAR100-LT.
- Abstract(参考訳): 現実世界の視覚認識問題は、異なるカテゴリで学習するためのデータ量が大きな不均衡を示すロングテール分布を示すことが多い。
このようなデータ分布で学習された標準分類モデルは、しばしば尾のクラスを一般化しながら、ヘッドクラスに対してバイアスのある予測を行う。
本稿では,cnnの2つの効果的な修正を行い,ロングテール分布からのネットワーク学習を改善する。
まず,重要画像領域に基づくネットワーク予測を強制することにより,ネットワーク分類器の学習と予測を改善するためのクラスアクティベーションマップキャリブレーション(camc)モジュールを提案する。
提案するCAMCモジュールは,データ間の相関画像領域を強調表示し,これらの領域の表現を強化し,よりグローバルな分類表現を得る。
さらに,長期化問題における表現学習における正規化分類器の利用について検討した。
実験により, 適切なスカラーで分類器の出力をスケールすることで, ヘッドクラスの精度を損なうことなく, テールクラスの分類精度を効果的に向上できることを示した。
我々は,この設計の有効性を検証するための広範な実験を行い,ImageNet-LT, Places-LT, iNaturalist 2018, CIFAR10-LT, CIFAR100-LTの5つのベンチマークに対して,新しい最先端性能を設定した。
関連論文リスト
- Leveraging Angular Information Between Feature and Classifier for
Long-tailed Learning: A Prediction Reformulation Approach [90.77858044524544]
分類器の重みを再バランスすることなく、包含角度で認識確率を再構成する。
予測形式再構成の性能向上に着想を得て, この角度予測の異なる特性について検討する。
CIFAR10/100-LT と ImageNet-LT を事前学習することなく、ピアメソッド間で最高の性能を得ることができる。
論文 参考訳(メタデータ) (2022-12-03T07:52:48Z) - 2nd Place Solution for ICCV 2021 VIPriors Image Classification
Challenge: An Attract-and-Repulse Learning Approach [41.346232387426944]
畳み込みニューラルネットワーク(CNN)は、大規模なデータセットを利用することで、画像分類において大きな成功を収めた。
特徴表現を豊かにするContrastive Regularization(CR)と、異なるクラスに対する適合性のバランスをとるSymmetric Cross Entropy(SCE)からなるAttract-and-Repulseを提案する。
具体的には、SCEとCRは、クラス(トラクション)とインスタンス(リパルス)の情報間の適応的トレードオフによる過度な適合を緩和しながら、識別表現を学習する。
論文 参考訳(メタデータ) (2022-06-13T13:54:33Z) - Improving Tail-Class Representation with Centroid Contrastive Learning [115.63347757736918]
本稿では,長い尾を持つ表現学習を改善するために,補間型セントロイドコントラスト学習(ICCL)を提案する。
ICCLは、クラス別サンプルとクラス別サンプルの2つの画像を補間し、ICCLの表現が両方のソースクラスのセントロイドを取得するために使用されるようにモデルを訓練する。
我々の結果は、現実世界の長い尾の分布を持つiNaturalist 2018データセットで2.8%の精度向上を示した。
論文 参考訳(メタデータ) (2021-10-19T15:24:48Z) - Scaling Laws for the Few-Shot Adaptation of Pre-trained Image
Classifiers [11.408339220607251]
ニューラルネットワークのスケーリング法則の実証科学は、機械学習の未来にとって重要な領域として急速に成長している。
我々の主な目的は、事前学習データの量が標準画像分類器の少数ショット一般化性能にどのように影響するかを検討することである。
論文 参考訳(メタデータ) (2021-10-13T19:07:01Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - PK-GCN: Prior Knowledge Assisted Image Classification using Graph
Convolution Networks [3.4129083593356433]
クラス間の類似性は、分類のパフォーマンスに影響を与える可能性がある。
本稿では,クラス類似性の知識を畳み込みニューラルネットワークモデルに組み込む手法を提案する。
実験結果から, 利用可能なデータの量が少ない場合には, 分類精度が向上することが示唆された。
論文 参考訳(メタデータ) (2020-09-24T18:31:35Z) - Fine-Grained Visual Classification with Efficient End-to-end
Localization [49.9887676289364]
本稿では,エンド・ツー・エンドの設定において,分類ネットワークと融合可能な効率的なローカライゼーションモジュールを提案する。
我々は,CUB200-2011,Stanford Cars,FGVC-Aircraftの3つのベンチマークデータセット上で,新しいモデルを評価する。
論文 参考訳(メタデータ) (2020-05-11T14:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。