論文の概要: Rethinking Curriculum Learning with Incremental Labels and Adaptive
Compensation
- arxiv url: http://arxiv.org/abs/2001.04529v3
- Date: Thu, 13 Aug 2020 16:00:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 22:31:19.226212
- Title: Rethinking Curriculum Learning with Incremental Labels and Adaptive
Compensation
- Title(参考訳): インクリメンタルラベルと適応補償によるカリキュラム学習の再考
- Authors: Madan Ravi Ganesh and Jason J. Corso
- Abstract要約: 人間と同様に、ディープネットワークは、サンプルが組織化され、意味のある順序やカリキュラムで導入されたときに、よりよく学習することが示されている。
インクリメンタルラベルと適応補償を用いた学習(LILAC)を提案する。
- 参考スコア(独自算出の注目度): 35.593312267921256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Like humans, deep networks have been shown to learn better when samples are
organized and introduced in a meaningful order or curriculum. Conventional
curriculum learning schemes introduce samples in their order of difficulty.
This forces models to begin learning from a subset of the available data while
adding the external overhead of evaluating the difficulty of samples. In this
work, we propose Learning with Incremental Labels and Adaptive Compensation
(LILAC), a two-phase method that incrementally increases the number of unique
output labels rather than the difficulty of samples while consistently using
the entire dataset throughout training. In the first phase, Incremental Label
Introduction, we partition data into mutually exclusive subsets, one that
contains a subset of the ground-truth labels and another that contains the
remaining data attached to a pseudo-label. Throughout the training process, we
recursively reveal unseen ground-truth labels in fixed increments until all the
labels are known to the model. In the second phase, Adaptive Compensation, we
optimize the loss function using altered target vectors of previously
misclassified samples. The target vectors of such samples are modified to a
smoother distribution to help models learn better. On evaluating across three
standard image benchmarks, CIFAR-10, CIFAR-100, and STL-10, we show that LILAC
outperforms all comparable baselines. Further, we detail the importance of
pacing the introduction of new labels to a model as well as the impact of using
a smooth target vector.
- Abstract(参考訳): 人間と同様に、深層ネットワークはサンプルが組織化され、意味のある順序やカリキュラムで導入されるとより良く学習することが示されている。
従来のカリキュラム学習方式では、サンプルを難易度順に導入する。
これにより、モデルは利用可能なデータのサブセットから学び始め、サンプルの難易度を評価する外部オーバーヘッドを追加する。
本研究では,学習中にデータセット全体を一貫して使用しながら,サンプルの難易度よりも一意な出力ラベル数を漸進的に増加させる2相法である,インクリメンタルラベルと適応補償(lilac)を用いた学習を提案する。
第1フェーズのインクリメンタルラベル導入では、データを相互に排他的なサブセットに分割し、一方は接地ラベルのサブセットを含み、もう一方は擬似ラベルにアタッチされた残りのデータを含む。
トレーニングプロセスを通じて,すべてのラベルがモデルに知られるまで,未知の接地ラベルを一定のインクリメントで再帰的に明らかにする。
適応補償の第2フェーズでは,予め誤分類されたサンプルのターゲットベクトルを変化させて損失関数を最適化する。
このようなサンプルのターゲットベクトルは、モデルの学習を支援するために、より滑らかな分布に修正される。
CIFAR-10, CIFAR-100, STL-10の3つの標準画像ベンチマークで評価した結果, LILACが同等のベースラインをすべて上回ることがわかった。
さらに、モデルへの新しいラベルの導入を緩和することの重要性と、滑らかなターゲットベクトルの使用の影響について詳述する。
関連論文リスト
- LPLgrad: Optimizing Active Learning Through Gradient Norm Sample Selection and Auxiliary Model Training [2.762397703396293]
LPLgrad(Loss Prediction Loss with Gradient Norm)は、モデルの不確実性を効果的に定量化し、画像分類タスクの精度を向上させる。
LPLgradは2つの異なるフェーズで動作する: (i) Em Training Phaseは、メインモデルと補助モデルとを併用して入力特徴の損失を予測することを目的としている。
この二重モデルアプローチは、複雑な入力特徴を抽出し、データから本質的なパターンを効果的に学習する能力を高める。
論文 参考訳(メタデータ) (2024-11-20T18:12:59Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Rethinking Precision of Pseudo Label: Test-Time Adaptation via
Complementary Learning [10.396596055773012]
本稿では,テスト時間適応性を高めるための新しい補完学習手法を提案する。
テスト時適応タスクでは、ソースドメインからの情報は通常利用できない。
我々は,相補ラベルのリスク関数がバニラ損失式と一致することを強調した。
論文 参考訳(メタデータ) (2023-01-15T03:36:33Z) - Complementary Labels Learning with Augmented Classes [22.460256396941528]
補完ラベル学習 (Complementary Labels Learning, CLL) は、プライベート質問分類やオンライン学習など、現実世界の多くのタスクに現れる。
CLLAC(Complementary Labels Learning with Augmented Classs)と呼ばれる新しい問題設定を提案する。
ラベルのないデータを用いて,CLLACの分類リスクの偏りのない推定手法を提案する。
論文 参考訳(メタデータ) (2022-11-19T13:55:27Z) - Dense FixMatch: a simple semi-supervised learning method for pixel-wise
prediction tasks [68.36996813591425]
Dense FixMatchは,高密度かつ構造化された予測タスクのオンライン半教師付き学習のための簡易な手法である。
我々は、擬似ラベルにマッチング操作を追加することにより、画像分類を超えた半教師付き学習問題にFixMatchの適用を可能にする。
Dense FixMatchは、ラベル付きデータのみを使用して教師付き学習と比較すると、結果を著しく改善し、ラベル付きサンプルの1/4でそのパフォーマンスに近づいた。
論文 参考訳(メタデータ) (2022-10-18T15:02:51Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - An analysis of over-sampling labeled data in semi-supervised learning
with FixMatch [66.34968300128631]
ほとんどの半教師付き学習手法は、ミニバッチを訓練する際にラベルをオーバーサンプルする。
本稿では,この実践が学習と方法を改善するかどうかを考察する。
ラベル付けの有無に関わらず、トレーニングデータから各ミニバッチを均一にサンプリングする別の設定と比較する。
論文 参考訳(メタデータ) (2022-01-03T12:22:26Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z) - Curriculum Labeling: Revisiting Pseudo-Labeling for Semi-Supervised
Learning [27.258077365554474]
半教師あり学習の文脈における擬似ラベルの考え方を再考する。
Pseudo-labelingは、未ラベル集合のサンプルに擬似ラベルを適用することで機能する。
CIFAR-10で94.91%、Imagenet-ILSVRCで68.87%、ラベル付きサンプルで68.87%の精度で94.91%の精度を得る。
論文 参考訳(メタデータ) (2020-01-16T03:24:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。