論文の概要: Shift Happens: Adjusting Classifiers
- arxiv url: http://arxiv.org/abs/2111.02529v1
- Date: Wed, 3 Nov 2021 21:27:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-06 02:40:52.253748
- Title: Shift Happens: Adjusting Classifiers
- Title(参考訳): シフト: 分類器の調整
- Authors: Theodore James Thibault Heiser, Mari-Liis Allikivi, Meelis Kull
- Abstract要約: ブレアスコアやログロス(クロスエントロピー)のような適切なスコアリングルールによって測定される期待損失を最小限に抑えることは、確率的分類器を訓練する際の共通の目的である。
本稿では,全ての予測を平均予測とクラス分布に等化させる手法を提案する。
実際に、クラス分布が概ね知られている場合、シフトの量やクラス分布が知られている精度に応じて、損失が減少することがしばしばあることを実験によって実証した。
- 参考スコア(独自算出の注目度): 2.8682942808330703
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Minimizing expected loss measured by a proper scoring rule, such as Brier
score or log-loss (cross-entropy), is a common objective while training a
probabilistic classifier. If the data have experienced dataset shift where the
class distributions change post-training, then often the model's performance
will decrease, over-estimating the probabilities of some classes while
under-estimating the others on average. We propose unbounded and bounded
general adjustment (UGA and BGA) methods that transform all predictions to
(re-)equalize the average prediction and the class distribution. These methods
act differently depending on which proper scoring rule is to be minimized, and
we have a theoretical guarantee of reducing loss on test data, if the exact
class distribution is known. We also demonstrate experimentally that, when in
practice the class distribution is known only approximately, there is often
still a reduction in loss depending on the amount of shift and the precision to
which the class distribution is known.
- Abstract(参考訳): brierスコアやlog-loss(cross-entropy)などの適切なスコアルールによって測定される期待損失の最小化は、確率的分類器のトレーニングにおいて共通の目的である。
データがトレーニング後にクラス分布が変化するデータセットシフトを経験した場合、モデルのパフォーマンスが低下し、一部のクラスの確率を過小評価し、他のクラスを平均的に過小評価することが多い。
我々は,すべての予測を平均予測とクラス分布を(再)等化する非有界および有界一般調整(ugaおよびbga)法を提案する。
これらの手法は、どの適切なスコアリングルールを最小化するかによって異なる振る舞いをしており、正確なクラス分布が分かっていれば、テストデータの損失を減らす理論的保証がある。
また、実際にクラス分布がほぼ知られている場合、シフトの量やクラス分布が知られている精度に応じて、損失が減少することがしばしばあることを実験的に実証した。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - When Noisy Labels Meet Long Tail Dilemmas: A Representation Calibration
Method [40.25499257944916]
実世界のデータセットは騒々しくラベル付けされ、クラス不均衡である。
本稿では,表現キャリブレーション手法RCALを提案する。
我々は,表現キャリブレーションの有効性を論じるために理論的結果を得る。
論文 参考訳(メタデータ) (2022-11-20T11:36:48Z) - Learnable Distribution Calibration for Few-Shot Class-Incremental
Learning [122.2241120474278]
FSCIL(Few-shot class-incremental Learning)は、古いクラス分布を記憶し、少数のトレーニングサンプルから新しいクラス分布を推定するという課題に直面している。
本稿では,これら2つの課題を統一フレームワークを用いて体系的に解決することを目的とした,学習可能な分布校正手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:40:26Z) - Throwing Away Data Improves Worst-Class Error in Imbalanced
Classification [36.91428748713018]
クラス不均衡は分類問題に悪影響を及ぼすが、その治療は理論と実践において異なる。
本稿では,線形分離可能なデータに対する分類器の誤りを記述できる学習理論の開発に挑戦する。
論文 参考訳(メタデータ) (2022-05-23T23:43:18Z) - Realistic Evaluation of Transductive Few-Shot Learning [41.06192162435249]
トランスダクティブ推論は、数ショットの学習で広く使われている。
推論における少数ショットタスクの問合せセット内における任意のクラス分布の効果について検討する。
我々は,3つの広く使用されているデータセットに対して,最先端のトランスダクティブ手法を実験的に評価した。
論文 参考訳(メタデータ) (2022-04-24T03:35:06Z) - Unimodal-Concentrated Loss: Fully Adaptive Label Distribution Learning
for Ordinal Regression [32.35098925000738]
既存のALDLアルゴリズムは、順序回帰の本質的な性質を十分に活用していないと論じる。
完全適応型ラベル分布学習(unimodal-concentated loss)のための新しい損失関数を提案する。
論文 参考訳(メタデータ) (2022-04-01T09:40:11Z) - Distribution Mismatch Correction for Improved Robustness in Deep Neural
Networks [86.42889611784855]
正規化法は ノイズや入力の腐敗に関して 脆弱性を増大させる
本稿では,各層の活性化分布に適応する非教師なし非パラメトリック分布補正法を提案する。
実験により,提案手法は画像劣化の激しい影響を効果的に低減することを示した。
論文 参考訳(メタデータ) (2021-10-05T11:36:25Z) - Towards optimally abstaining from prediction [22.937799541125607]
機械学習のあらゆる領域に共通する課題は、トレーニングデータがテストデータのように分散されていないことだ。
一定のコストで予測を控えるモデルを考える。
我々は、Goldwasser、Kalais、Montasser(2020年)の最近の禁断アルゴリズムに基づいて、トランスダクティブバイナリ分類を行った。
論文 参考訳(メタデータ) (2021-05-28T21:44:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。