論文の概要: Minority Class Oriented Active Learning for Imbalanced Datasets
- arxiv url: http://arxiv.org/abs/2202.00390v1
- Date: Tue, 1 Feb 2022 13:13:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 18:33:04.890473
- Title: Minority Class Oriented Active Learning for Imbalanced Datasets
- Title(参考訳): 不均衡データセットのためのマイノリティクラス指向アクティブラーニング
- Authors: Umang Aggarwal, Adrian Popescu, and C\'eline Hudelot
- Abstract要約: 本研究では,不均衡なデータセットを対象とした新しいアクティブ学習手法を提案する。
これは、ラベル付きサブセットの不均衡を減らすために、マイノリティクラスにある可能性が高いサンプルを好む。
また、アクティブラーニングのための2つのトレーニングスキームを比較した。
- 参考スコア(独自算出の注目度): 6.009262446889319
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active learning aims to optimize the dataset annotation process when
resources are constrained. Most existing methods are designed for balanced
datasets. Their practical applicability is limited by the fact that a majority
of real-life datasets are actually imbalanced. Here, we introduce a new active
learning method which is designed for imbalanced datasets. It favors samples
likely to be in minority classes so as to reduce the imbalance of the labeled
subset and create a better representation for these classes. We also compare
two training schemes for active learning: (1) the one commonly deployed in deep
active learning using model fine tuning for each iteration and (2) a scheme
which is inspired by transfer learning and exploits generic pre-trained models
and train shallow classifiers for each iteration. Evaluation is run with three
imbalanced datasets. Results show that the proposed active learning method
outperforms competitive baselines. Equally interesting, they also indicate that
the transfer learning training scheme outperforms model fine tuning if features
are transferable from the generic dataset to the unlabeled one. This last
result is surprising and should encourage the community to explore the design
of deep active learning methods.
- Abstract(参考訳): active learningは、リソースが制約されたときにデータセットのアノテーションプロセスを最適化することを目的としている。
既存のほとんどのメソッドはバランスの取れたデータセット用に設計されている。
彼らの実用的適用性は、実際のデータセットの大部分が実際に不均衡であるという事実によって制限される。
本稿では,不均衡なデータセットを対象とした新しいアクティブ学習手法を提案する。
これは、ラベル付きサブセットの不均衡を減らし、これらのクラスのより良い表現を作成するために、マイノリティクラスにある可能性が高いサンプルを好む。
また,本研究は,(1)モデル微調整を反復毎に用いた深層能動学習と(2)伝達学習にインスパイアされ,汎用的な事前学習モデルを活用し,各反復に対して浅い分類器を訓練する手法の2つを比較した。
評価は3つの不均衡データセットで実行される。
その結果,提案手法は競争ベースラインを上回っていることがわかった。
同様に興味深いことに、トランスファーラーニングトレーニングスキームは、ジェネリックデータセットからラベルなしデータセットへ機能が転送可能であれば、モデルファインチューニングよりも優れていることを示している。
この最後の結果は驚きであり、コミュニティに深いアクティブな学習方法の設計を探求するよう促すべきである。
関連論文リスト
- Simplifying Neural Network Training Under Class Imbalance [77.39968702907817]
実世界のデータセットは、しばしば高いクラス不均衡であり、ディープラーニングモデルのパフォーマンスに悪影響を及ぼす可能性がある。
クラス不均衡下でのニューラルネットワークのトレーニングに関する研究の大部分は、特殊な損失関数、サンプリング技術、または2段階のトレーニング手順に焦点を当てている。
バッチサイズやデータ拡張,ラベルの平滑化といった,標準的なディープラーニングパイプラインの既存のコンポーネントを単にチューニングするだけで,そのような特殊なクラス不均衡な手法を使わずに,最先端のパフォーマンスを達成できることを実証する。
論文 参考訳(メタデータ) (2023-12-05T05:52:44Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - Active Learning with Combinatorial Coverage [0.0]
アクティブな学習は、ラベル付けするデータを選択するプロセスを自動化する機械学習の実践的な分野である。
現在の手法はデータラベリングの負担を軽減するのに有効であるが、モデルに強く依存する。
これにより、サンプルデータの新しいモデルへの転送が不可能になり、サンプリングバイアスの問題も発生した。
本稿では,これらの課題を克服するために,カバレッジを活用した能動的学習手法を提案する。
論文 参考訳(メタデータ) (2023-02-28T13:43:23Z) - Iterative Loop Learning Combining Self-Training and Active Learning for
Domain Adaptive Semantic Segmentation [1.827510863075184]
この問題を緩和するために、自己学習とアクティブラーニングが提案されている。
本稿では,自己学習とアクティブラーニングを組み合わせた反復ループ学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-31T01:31:43Z) - Imbalanced Classification via Explicit Gradient Learning From Augmented
Data [0.0]
本稿では、与えられた不均衡なデータセットを新しいマイノリティインスタンスに拡張する、新しい深層メタラーニング手法を提案する。
提案手法の利点は, 種々の不均衡比を持つ合成および実世界のデータセット上で実証される。
論文 参考訳(メタデータ) (2022-02-21T22:16:50Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Class-Balanced Active Learning for Image Classification [29.5211685759702]
本稿では,クラスバランスを考慮に入れた汎用最適化フレームワークを提案する。
3つのデータセットの結果から,本手法は汎用的(既存のほとんどのアクティブラーニングアルゴリズムと組み合わせることができる)であり,情報と代表に基づくアクティブラーニング手法の性能向上に効果的に適用可能であることが示された。
論文 参考訳(メタデータ) (2021-10-09T11:30:26Z) - Class Balancing GAN with a Classifier in the Loop [58.29090045399214]
本稿では,GANを学習するための理論的動機付けクラスバランス正則化器を提案する。
我々の正規化器は、訓練済みの分類器からの知識を利用して、データセット内のすべてのクラスのバランスの取れた学習を確実にします。
複数のデータセットにまたがる既存手法よりも優れた性能を達成し,長期分布の学習表現における正規化器の有用性を実証する。
論文 参考訳(メタデータ) (2021-06-17T11:41:30Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Sequential Targeting: an incremental learning approach for data
imbalance in text classification [7.455546102930911]
不均衡なデータセットを扱う方法は、分散スキューを軽減するために不可欠である。
本稿では,提案手法の有効性によらず,新たなトレーニング手法であるシーケンスターゲティング(ST)を提案する。
シミュレーションベンチマークデータセット(IMDB)とNAVERから収集したデータを用いて,本手法の有効性を示す。
論文 参考訳(メタデータ) (2020-11-20T04:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。