論文の概要: Compound Batch Normalization for Long-tailed Image Classification
- arxiv url: http://arxiv.org/abs/2212.01007v1
- Date: Fri, 2 Dec 2022 07:31:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 17:00:16.379206
- Title: Compound Batch Normalization for Long-tailed Image Classification
- Title(参考訳): 長期画像分類のための複合バッチ正規化
- Authors: Lechao Cheng, Chaowei Fang, Dingwen Zhang, Guanbin Li, Gang Huang
- Abstract要約: 本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
- 参考スコア(独自算出の注目度): 77.42829178064807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Significant progress has been made in learning image classification neural
networks under long-tail data distribution using robust training algorithms
such as data re-sampling, re-weighting, and margin adjustment. Those methods,
however, ignore the impact of data imbalance on feature normalization. The
dominance of majority classes (head classes) in estimating statistics and
affine parameters causes internal covariate shifts within less-frequent
categories to be overlooked. To alleviate this challenge, we propose a compound
batch normalization method based on a Gaussian mixture. It can model the
feature space more comprehensively and reduce the dominance of head classes. In
addition, a moving average-based expectation maximization (EM) algorithm is
employed to estimate the statistical parameters of multiple Gaussian
distributions. However, the EM algorithm is sensitive to initialization and can
easily become stuck in local minima where the multiple Gaussian components
continue to focus on majority classes. To tackle this issue, we developed a
dual-path learning framework that employs class-aware split feature
normalization to diversify the estimated Gaussian distributions, allowing the
Gaussian components to fit with training samples of less-frequent classes more
comprehensively. Extensive experiments on commonly used datasets demonstrated
that the proposed method outperforms existing methods on long-tailed image
classification.
- Abstract(参考訳): データ再サンプリング、再重み付け、マージン調整といった堅牢なトレーニングアルゴリズムを用いて、長期データ分布下でのイメージ分類ニューラルネットワークの学習において、重要な進歩があった。
しかし、これらの手法は特徴正規化に対するデータ不均衡の影響を無視している。
統計とアフィンパラメータの推定における多数クラス(ヘッドクラス)の優位性は、少ない頻度のカテゴリで内部共変量シフトを引き起こす。
この課題を軽減するために,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位を減らすことができる。
さらに、複数のガウス分布の統計パラメータを推定するために、移動平均ベース期待最大化(em)アルゴリズムが用いられる。
しかし、EMアルゴリズムは初期化に敏感であり、複数のガウス成分が多数派クラスに集中し続けるような局所的なミニマでは簡単に立ち往生する。
この問題に対処するため,我々は,クラス認識分割特徴正規化を用いて推定ガウス分布の多様化を行い,ガウス成分がより包括的に低頻度クラスのトレーニングサンプルに適合することを可能にするデュアルパス学習フレームワークを開発した。
一般的なデータセットに対する大規模な実験により、提案手法は、長い尾画像分類における既存の手法よりも優れていることを示した。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Sparse Variational Contaminated Noise Gaussian Process Regression with Applications in Geomagnetic Perturbations Forecasting [4.675221539472143]
大規模なデータセットに正規ノイズが汚染されたスパースガウス過程回帰モデルを適用するためのスケーラブルな推論アルゴリズムを提案する。
提案手法は, 人工ニューラルネットワークベースラインと比較して, 類似のカバレッジと精度の予測間隔が短いことを示す。
論文 参考訳(メタデータ) (2024-02-27T15:08:57Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Learnable Distribution Calibration for Few-Shot Class-Incremental
Learning [122.2241120474278]
FSCIL(Few-shot class-incremental Learning)は、古いクラス分布を記憶し、少数のトレーニングサンプルから新しいクラス分布を推定するという課題に直面している。
本稿では,これら2つの課題を統一フレームワークを用いて体系的に解決することを目的とした,学習可能な分布校正手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:40:26Z) - A New Robust Multivariate Mode Estimator for Eye-tracking Calibration [0.0]
本稿では,多変量分布の主モードを推定する新しい手法を提案する。
この種のマルチモーダル分布では、ほとんどの中心的傾向測度は主固定座標の推定に失敗する。
そこで我々は,BRILと呼ばれる多変量分布の第1モードを同定するアルゴリズムを開発した。
クラスタにグループ化され,ランダムに分散された,非常に高い割合のアウトリーチを含む分布においても,優れた性能が得られた。
論文 参考訳(メタデータ) (2021-07-16T17:45:19Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Binary Classification of Gaussian Mixtures: Abundance of Support
Vectors, Benign Overfitting and Regularization [39.35822033674126]
生成ガウス混合モデルに基づく二項線形分類について検討する。
後者の分類誤差に関する新しい非漸近境界を導出する。
この結果は, 確率が一定である雑音モデルに拡張される。
論文 参考訳(メタデータ) (2020-11-18T07:59:55Z) - Handling missing data in model-based clustering [0.0]
欠損データの存在下でガウス混合体を適合させる2つの方法を提案する。
どちらの手法もデータ拡張のためにモンテカルロ予測最大化アルゴリズムの変種を用いる。
提案手法はクラスタ同定と密度推定の両面で多重計算手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-06-04T15:36:31Z) - Minority Oversampling for Imbalanced Time Series Classification [7.695093197007146]
本稿では,高次元不均衡時間系列分類に対処するオーバーサンプリング手法を提案する。
いくつかの公開時系列データセットの実験結果は、最先端のオーバーサンプリングアルゴリズムに対するOHITの優位性を示している。
論文 参考訳(メタデータ) (2020-04-14T09:20:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。