論文の概要: Improving Calibration for Long-Tailed Recognition
- arxiv url: http://arxiv.org/abs/2104.00466v1
- Date: Thu, 1 Apr 2021 13:55:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:36:01.265254
- Title: Improving Calibration for Long-Tailed Recognition
- Title(参考訳): ロングテール認識のための校正の改善
- Authors: Zhisheng Zhong, Jiequan Cui, Shu Liu, Jiaya Jia
- Abstract要約: このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
- 参考スコア(独自算出の注目度): 68.32848696795519
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks may perform poorly when training datasets are heavily
class-imbalanced. Recently, two-stage methods decouple representation learning
and classifier learning to improve performance. But there is still the vital
issue of miscalibration. To address it, we design two methods to improve
calibration and performance in such scenarios. Motivated by the fact that
predicted probability distributions of classes are highly related to the
numbers of class instances, we propose label-aware smoothing to deal with
different degrees of over-confidence for classes and improve classifier
learning. For dataset bias between these two stages due to different samplers,
we further propose shifted batch normalization in the decoupling framework. Our
proposed methods set new records on multiple popular long-tailed recognition
benchmark datasets, including CIFAR-10-LT, CIFAR-100-LT, ImageNet-LT,
Places-LT, and iNaturalist 2018. Code will be available at
https://github.com/Jia-Research-Lab/MiSLAS.
- Abstract(参考訳): 深層ニューラルネットワークは、トレーニングデータセットがかなりクラス不均衡である場合、パフォーマンスが悪くなる可能性がある。
近年,2段階の手法が表現学習と分類学習を分離し,性能が向上している。
しかし、いまだに誤診の重大な問題がある。
そこで我々は,このようなシナリオにおけるキャリブレーションと性能を改善する2つの手法を設計した。
クラスの予測確率分布がクラスインスタンス数に強く関連していることから,クラスに対する自信の度合いの相違に対処し,分類器学習を改善するラベル認識スムーシングを提案する。
サンプルの異なる2つのステージ間のデータセットバイアスについて、デカップリングフレームワークにおけるシフトバッチ正規化を提案する。
提案手法は,CIFAR-10-LT,CIFAR-100-LT,ImageNet-LT,Places-LT,iNaturalist 2018など,複数の一般的な長周期認識ベンチマークデータセットに新たなレコードを設定した。
コードはhttps://github.com/Jia-Research-Lab/MiSLASで入手できる。
関連論文リスト
- Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Three Heads Are Better Than One: Complementary Experts for Long-Tailed Semi-supervised Learning [74.44500692632778]
本稿では,様々なクラス分布をモデル化するComPlementary Experts (CPE) を提案する。
CPEは、CIFAR-10-LT、CIFAR-100-LT、STL-10-LTのベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-25T11:54:07Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Balanced Contrastive Learning for Long-Tailed Visual Recognition [32.789465918318925]
現実のデータは典型的には長い尾の分布を辿り、いくつかの大半がデータの大半を占める。
本稿では,不均衡なデータに対する表現学習に着目した。
バランス付きコントラスト学習(BCL)における新たな損失を提案する。
論文 参考訳(メタデータ) (2022-07-19T03:48:59Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Balancing Constraints and Submodularity in Data Subset Selection [43.03720397062461]
より少ないトレーニングデータを用いて、従来のディープラーニングモデルと同様の精度が得られることを示す。
新たな多様性駆動客観的関数を提案し,マトロイドを用いたクラスラベルと決定境界の制約のバランスをとる。
論文 参考訳(メタデータ) (2021-04-26T19:22:27Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Class-incremental Learning using a Sequence of Partial Implicitly
Regularized Classifiers [0.0]
クラス増分学習では、トレーニングデータ全体にアクセスすることなく、複数のクラスを順次学習することが目的である。
CIFAR100データセットの実験では、提案手法がSOTAの性能を大きなマージンで向上させることが示された。
論文 参考訳(メタデータ) (2021-04-04T10:02:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。