論文の概要: Towards Calibrated Model for Long-Tailed Visual Recognition from Prior
Perspective
- arxiv url: http://arxiv.org/abs/2111.03874v1
- Date: Sat, 6 Nov 2021 12:53:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 12:16:22.359989
- Title: Towards Calibrated Model for Long-Tailed Visual Recognition from Prior
Perspective
- Title(参考訳): 先見からみた長期視覚認識の校正モデルに向けて
- Authors: Zhengzhuo Xu, Zenghao Chai, Chun Yuan
- Abstract要約: 実世界のデータは、深刻な階級不均衡問題に直面し、長い尾の分布を示す。
本稿では,このジレンマを緩和する2つの新しい手法を提案する。
まず、UniMix(UniMix)と呼ばれるバランス指向データ拡張を推定し、長期のシナリオでミキサアップを促進する。
第二に、ベイズ理論に動機づけられたベイズバイアス(ベイアズ)は、標準的なクロスエントロピー損失の修正としてそれを補償する。
- 参考スコア(独自算出の注目度): 17.733087434470907
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world data universally confronts a severe class-imbalance problem and
exhibits a long-tailed distribution, i.e., most labels are associated with
limited instances. The na\"ive models supervised by such datasets would prefer
dominant labels, encounter a serious generalization challenge and become poorly
calibrated. We propose two novel methods from the prior perspective to
alleviate this dilemma. First, we deduce a balance-oriented data augmentation
named Uniform Mixup (UniMix) to promote mixup in long-tailed scenarios, which
adopts advanced mixing factor and sampler in favor of the minority. Second,
motivated by the Bayesian theory, we figure out the Bayes Bias (Bayias), an
inherent bias caused by the inconsistency of prior, and compensate it as a
modification on standard cross-entropy loss. We further prove that both the
proposed methods ensure the classification calibration theoretically and
empirically. Extensive experiments verify that our strategies contribute to a
better-calibrated model, and their combination achieves state-of-the-art
performance on CIFAR-LT, ImageNet-LT, and iNaturalist 2018.
- Abstract(参考訳): 現実世界のデータは、厳格なクラス不均衡問題に普遍的に対処し、ロングテールのディストリビューション、すなわちほとんどのラベルは限られたインスタンスに関連付けられている。
このようなデータセットによって監督されるna\"iveモデルは、支配的なラベルを好み、深刻な一般化の課題に遭遇し、キャリブレーションが不十分になる。
本稿では,このジレンマを緩和する2つの新しい手法を提案する。
まず,一様混合 (unimix) とよばれるバランス指向データ拡張を推定し, マイノリティに有利な高度な混合係数とスペンサーを採用するロングテールシナリオにおけるミックスアップを促進する。
第二に、ベイズ理論に動機づけられたベイズバイアス(ベイズバイアス)は、前者の矛盾に起因する固有のバイアスであり、標準的なクロスエントロピー損失の修正として補償する。
さらに,提案手法が理論的かつ実証的に分類校正を保証することを証明した。
CIFAR-LT, ImageNet-LT, iNaturalist 2018において,我々の戦略がより良い校正モデルに寄与していることを検証する。
関連論文リスト
- MITA: Bridging the Gap between Model and Data for Test-time Adaptation [68.62509948690698]
テスト時間適応(TTA)は、モデルの一般化性を高めるための有望なパラダイムとして登場した。
本稿では,Met-In-The-MiddleをベースとしたMITAを提案する。
論文 参考訳(メタデータ) (2024-10-12T07:02:33Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Twice Class Bias Correction for Imbalanced Semi-Supervised Learning [59.90429949214134]
textbfTwice textbfClass textbfBias textbfCorrection (textbfTCBC) と呼ばれる新しいアプローチを導入する。
トレーニング過程におけるモデルパラメータのクラスバイアスを推定する。
非ラベル標本に対してモデルの擬似ラベルに二次補正を適用する。
論文 参考訳(メタデータ) (2023-12-27T15:06:36Z) - Fairness under Covariate Shift: Improving Fairness-Accuracy tradeoff
with few Unlabeled Test Samples [21.144077993862652]
我々は、ラベル付きトレーニングセットとともに、ラベル付きテストサンプルの小さなセットのみが利用可能である教師なしのシステムで運用する。
我々は、損失定式化による最適化が、最先端のベースラインよりも優れていることを実験的に検証した。
提案手法は, それらの性能を著しく上回ることを示す。
論文 参考訳(メタデータ) (2023-10-11T14:39:51Z) - Fair GANs through model rebalancing for extremely imbalanced class
distributions [5.463417677777276]
本稿では,既存のバイアス付きGANからGAN(unbiased generative adversarial Network)を構築するためのアプローチを提案する。
Flickr Faces High Quality (FFHQ) データセットを用いて、人種的公平性をトレーニングしながら、StyleGAN2モデルの結果を示す。
また,不均衡なCIFAR10データセットに適用することで,我々のアプローチをさらに検証する。
論文 参考訳(メタデータ) (2023-08-16T19:20:06Z) - The Decaying Missing-at-Random Framework: Doubly Robust Causal Inference
with Partially Labeled Data [10.021381302215062]
現実のシナリオでは、データ収集の制限によって部分的にラベル付けされたデータセットが生成されることが多く、信頼性の高い因果推論の描画が困難になる。
半パラメトリック(SS)や欠落したデータ文学における従来のアプローチは、これらの複雑さを適切に扱えないため、偏りのある見積もりにつながる可能性がある。
このフレームワークは、高次元設定における欠落した結果に対処し、選択バイアスを考慮に入れます。
論文 参考訳(メタデータ) (2023-05-22T07:37:12Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - On how to avoid exacerbating spurious correlations when models are
overparameterized [33.315813572333745]
VS-lossは、たとえスプリアス機能が強いとしても、マイノリティに公平なモデルを学ぶことを示す。
これまでの研究と比較すると、我々の境界はより一般的なモデルであり、それらは漸近的ではなく、極端な不均衡のシナリオにも適用される。
論文 参考訳(メタデータ) (2022-06-25T21:53:44Z) - Saliency Grafting: Innocuous Attribution-Guided Mixup with Calibrated
Label Mixing [104.630875328668]
ミックスアップスキームは、強化されたトレーニングサンプルを作成するために、サンプルのペアを混ぜることを提案する。
両世界のベストを捉えた、斬新だがシンプルなミックスアップ版を提示する。
論文 参考訳(メタデータ) (2021-12-16T11:27:48Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。