論文の概要: Maximising the Utility of Validation Sets for Imbalanced Noisy-label
Meta-learning
- arxiv url: http://arxiv.org/abs/2208.08132v1
- Date: Wed, 17 Aug 2022 08:02:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 12:28:41.600069
- Title: Maximising the Utility of Validation Sets for Imbalanced Noisy-label
Meta-learning
- Title(参考訳): 不平衡雑音ラベルメタラーニングのための検証セットの有用性の最大化
- Authors: Dung Anh Hoang and Cuong Nguyen anh Belagiannis Vasileios and Gustavo
Carneiro
- Abstract要約: 本稿では,その有効性を最大化して検証セットを自動的に構築する不均衡な雑音ラベルメタラーニング(INOLML)アルゴリズムを提案する。
提案手法は,従来のメタラーニング手法よりも大幅に改善され,いくつかのベンチマークで新たな最先端を設定できる。
- 参考スコア(独自算出の注目度): 16.318123642642075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-learning is an effective method to handle imbalanced and noisy-label
learning, but it depends on a validation set containing randomly selected,
manually labelled and balanced distributed samples. The random selection and
manual labelling and balancing of this validation set is not only sub-optimal
for meta-learning, but it also scales poorly with the number of classes. Hence,
recent meta-learning papers have proposed ad-hoc heuristics to automatically
build and label this validation set, but these heuristics are still sub-optimal
for meta-learning. In this paper, we analyse the meta-learning algorithm and
propose new criteria to characterise the utility of the validation set, based
on: 1) the informativeness of the validation set; 2) the class distribution
balance of the set; and 3) the correctness of the labels of the set.
Furthermore, we propose a new imbalanced noisy-label meta-learning (INOLML)
algorithm that automatically builds a validation set by maximising its utility
using the criteria above. Our method shows significant improvements over
previous meta-learning approaches and sets the new state-of-the-art on several
benchmarks.
- Abstract(参考訳): メタラーニングは, ランダムに選択され, 手動でラベル付けされ, バランスの取れた分散サンプルを含む検証セットに依存する。
この検証セットのランダムな選択と手作業によるラベル付けとバランスは、メタラーニングに最適であるだけでなく、クラス数にも及ばない。
したがって、近年のメタラーニング論文では、この検証セットを自動構築しラベル付けするためのアドホックなヒューリスティックスを提案しているが、これらのヒューリスティックスはメタラーニングにはまだ準最適である。
本稿では,メタラーニングアルゴリズムを分析し,検証セットの有用性を評価するための新しい基準を提案する。
1) 検証セットの通知性
2) 集合のクラス分布バランス,及び
3) 集合のラベルの正確性。
さらに、上記の基準を用いて有効性を最大化して検証セットを自動構築する、新しい不均衡雑音ラベルメタラーニング(INOLML)アルゴリズムを提案する。
提案手法は,これまでのメタラーニング手法よりも大幅に改善し,いくつかのベンチマークで新たな最先端を設定できる。
関連論文リスト
- One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - Meta Objective Guided Disambiguation for Partial Label Learning [44.05801303440139]
メタ客観的ガイド型曖昧化(MoGD)を用いたラベル学習のための新しい枠組みを提案する。
MoGDは、小さな検証セットでメタ目標を解くことで、候補ラベルから基底トラスラベルを復元することを目的としている。
提案手法は,通常のSGDを用いた様々なディープネットワークを用いて容易に実装できる。
論文 参考訳(メタデータ) (2022-08-26T06:48:01Z) - Label, Verify, Correct: A Simple Few Shot Object Detection Method [93.84801062680786]
トレーニングセットから高品質な擬似アノテーションを抽出するための簡単な擬似ラベリング手法を提案する。
擬似ラベリングプロセスの精度を向上させるための2つの新しい手法を提案する。
提案手法は,既存手法と比較して,最先端ないし第2の性能を実現する。
論文 参考訳(メタデータ) (2021-12-10T18:59:06Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Optimizing Black-box Metrics with Iterative Example Weighting [32.682652530189266]
混乱行列のブラックボックス関数によって定義される分類基準を最適化する学習を検討する。
提案手法は,トレーニングデータセットのサンプル重みを適応的に学習し,その結果の重み付け目標が検証サンプルの計量値に最も近いようにすることである。
論文 参考訳(メタデータ) (2021-02-18T17:19:09Z) - Robustness of Accuracy Metric and its Inspirations in Learning with
Noisy Labels [51.66448070984615]
十分な数の雑音サンプルに対してトレーニング精度を最大化すると,ほぼ最適な分類器が得られることを示す。
検証のために、ノイズの多い検証セットが信頼できることを証明し、モデル選択のクリティカルな要求に対処する。
理論結果に動機づけられて,ノイズラベルをトレーニングしたモデルの特徴付けを行い,ノイズ検証セットの有用性を検証する。
論文 参考訳(メタデータ) (2020-12-08T03:37:47Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。