論文の概要: VaB-AL: Incorporating Class Imbalance and Difficulty with Variational
Bayes for Active Learning
- arxiv url: http://arxiv.org/abs/2003.11249v2
- Date: Thu, 3 Dec 2020 12:18:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 02:29:54.336528
- Title: VaB-AL: Incorporating Class Imbalance and Difficulty with Variational
Bayes for Active Learning
- Title(参考訳): VaB-AL:アクティブラーニングのためのクラス不均衡と変分ベイの難しさ
- Authors: Jongwon Choi, Kwang Moo Yi, Jihoon Kim, Jinho Choo, Byoungjip Kim,
Jin-Yeop Chang, Youngjune Gwon, Hyung Jin Chang
- Abstract要約: 本研究では,クラス不均衡をアクティブラーニングフレームワークに自然に組み込む手法を提案する。
提案手法は,複数の異なるデータセットのタスク分類に適用可能であることを示す。
- 参考スコア(独自算出の注目度): 38.33920705605981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active Learning for discriminative models has largely been studied with the
focus on individual samples, with less emphasis on how classes are distributed
or which classes are hard to deal with. In this work, we show that this is
harmful. We propose a method based on the Bayes' rule, that can naturally
incorporate class imbalance into the Active Learning framework. We derive that
three terms should be considered together when estimating the probability of a
classifier making a mistake for a given sample; i) probability of mislabelling
a class, ii) likelihood of the data given a predicted class, and iii) the prior
probability on the abundance of a predicted class. Implementing these terms
requires a generative model and an intractable likelihood estimation.
Therefore, we train a Variational Auto Encoder (VAE) for this purpose. To
further tie the VAE with the classifier and facilitate VAE training, we use the
classifiers' deep feature representations as input to the VAE. By considering
all three probabilities, among them especially the data imbalance, we can
substantially improve the potential of existing methods under limited data
budget. We show that our method can be applied to classification tasks on
multiple different datasets -- including one that is a real-world dataset with
heavy data imbalance -- significantly outperforming the state of the art.
- Abstract(参考訳): 識別モデルのアクティブラーニングは、クラスがどのように分散しているか、どのクラスを扱うのが難しいかに重点を置きながら、個別のサンプルにフォーカスして研究されてきた。
この本では、これは有害であることを示している。
本研究では,自然にクラス不均衡をアクティブラーニングフレームワークに組み込むことのできるベイズ規則に基づく手法を提案する。
我々は,与えられたサンプルに対して誤りを行う分類器の確率を推定する場合,三つの項を一緒に考えるべきであることを導出する。
一 クラスを誤認するおそれがあること。
二 予測クラスが与えられたデータの可能性、及び
三 予測されたクラスの数についての事前の確率
これらの用語を実装するには、生成モデルと難解な確率推定が必要である。
そこで我々は,この目的のために変分オートエンコーダ(VAE)を訓練する。
VAEを分類器と結びつけて、VAE訓練を促進するために、分類器の深い特徴表現をVAEへの入力として使用する。
これら3つの確率,中でもデータ不均衡を考慮し,データ予算の制限の下で既存の手法の可能性を大幅に改善することができる。
我々の手法は、複数の異なるデータセットの分類タスクに適用可能であることを示し、その中には、重いデータ不均衡を持つ実世界のデータセットも含まれており、技術の現状を大幅に上回っている。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Probabilistic Safety Regions Via Finite Families of Scalable Classifiers [2.431537995108158]
監視された分類は、データのパターンを認識して、振る舞いのクラスを分離する。
正準解は、機械学習の数値近似の性質に固有の誤分類誤差を含む。
本稿では,確率論的安全性領域の概念を導入し,入力空間のサブセットとして,誤分類されたインスタンスの数を確率論的に制御する手法を提案する。
論文 参考訳(メタデータ) (2023-09-08T22:40:19Z) - Mutual Exclusive Modulator for Long-Tailed Recognition [12.706961256329572]
ロングテール認識は、カテゴリー間で極めて不均衡なトレーニングサンプルを与えられた高性能分類器を学習するタスクである。
各グループに属する画像の確率を推定できる相互排他変調器を導入する。
提案手法は,最先端のベンチマークと比較すると,競争性能が向上する。
論文 参考訳(メタデータ) (2023-02-19T07:31:49Z) - Class-Imbalanced Complementary-Label Learning via Weighted Loss [8.934943507699131]
補完ラベル学習(Complementary-label Learning, CLL)は、弱い教師付き分類において広く用いられている。
クラス不均衡のトレーニングサンプルに直面すると、現実世界のデータセットでは大きな課題に直面します。
多クラス分類のためのクラス不均衡補完ラベルからの学習を可能にする新しい問題設定を提案する。
論文 参考訳(メタデータ) (2022-09-28T16:02:42Z) - Learning to Adapt Classifier for Imbalanced Semi-supervised Learning [38.434729550279116]
Pseudo-labelingは、有望な半教師付き学習(SSL)パラダイムであることが証明されている。
既存の擬似ラベル法では、トレーニングデータのクラス分布が均衡していると仮定するのが一般的である。
本研究では,不均衡な半教師付きセットアップ下での擬似ラベリングについて検討する。
論文 参考訳(メタデータ) (2022-07-28T02:15:47Z) - Learning from Multiple Unlabeled Datasets with Partial Risk
Regularization [80.54710259664698]
本稿では,クラスラベルを使わずに正確な分類器を学習することを目的とする。
まず、与えられたラベルのない集合から推定できる分類リスクの偏りのない推定器を導出する。
その結果、経験的リスクがトレーニング中に負になるにつれて、分類器が過度に適合する傾向があることが判明した。
実験により,本手法は,複数の未ラベル集合から学習する最先端の手法を効果的に緩和し,性能を向上することを示した。
論文 参考訳(メタデータ) (2022-07-04T16:22:44Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - A Skew-Sensitive Evaluation Framework for Imbalanced Data Classification [11.125446871030734]
不均衡なデータセットのクラス分布スキューは、多数派クラスに対する予測バイアスのあるモデルにつながる可能性がある。
本稿では,不均衡なデータ分類のための簡易かつ汎用的な評価フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-12T19:47:09Z) - Rethinking Class-Balanced Methods for Long-Tailed Visual Recognition
from a Domain Adaptation Perspective [98.70226503904402]
現実世界のオブジェクトの周波数は、しばしば電力法則に従い、長い尾のクラス分布を持つデータセット間のミスマッチを引き起こす。
メタラーニング手法を用いて,クラス条件分布の違いを明示的に推定し,古典的なクラスバランス学習を強化することを提案する。
論文 参考訳(メタデータ) (2020-03-24T11:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。