論文の概要: A Mathematical Model for Curriculum Learning
- arxiv url: http://arxiv.org/abs/2301.13833v1
- Date: Tue, 31 Jan 2023 18:25:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 15:25:19.834559
- Title: A Mathematical Model for Curriculum Learning
- Title(参考訳): カリキュラム学習のための数学モデル
- Authors: Elisabetta Cornacchia and Elchanan Mossel
- Abstract要約: 我々は、勾配降下(SGD)によって訓練されたニューラルネットワークを用いて、二進弦のdビット上のk-パリティのクラスを学習するためのCLモデルを導入する。
2つ以上の製品分布を含む訓練例の賢明な選択は、このクラスの関数を学習する際の計算コストを大幅に削減できることを示す。
非有界な多くのカリキュラムステップを持つCLは、このクラスを効率的に学習できると推測する。
- 参考スコア(独自算出の注目度): 6.320141734801678
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Curriculum learning (CL) - training using samples that are generated and
presented in a meaningful order - was introduced in the machine learning
context around a decade ago. While CL has been extensively used and analysed
empirically, there has been very little mathematical justification for its
advantages. We introduce a CL model for learning the class of k-parities on d
bits of a binary string with a neural network trained by stochastic gradient
descent (SGD). We show that a wise choice of training examples, involving two
or more product distributions, allows to reduce significantly the computational
cost of learning this class of functions, compared to learning under the
uniform distribution. We conduct experiments to support our analysis.
Furthermore, we show that for another class of functions - namely the `Hamming
mixtures' - CL strategies involving a bounded number of product distributions
are not beneficial, while we conjecture that CL with unbounded many curriculum
steps can learn this class efficiently.
- Abstract(参考訳): カリキュラム学習(cl) - 有意義な順序で生成、提示されるサンプルを使用したトレーニング - が10年ほど前にマシンラーニングのコンテキストに導入された。
CLは経験的に広く使われ、分析されてきたが、その利点に対する数学的正当性はほとんどない。
本稿では,確率勾配勾配(SGD)により学習されたニューラルネットワークを用いて,二進弦のdビット上のkパリティのクラスを学習するためのCLモデルを提案する。
2つ以上の製品分布を含む訓練例の賢明な選択は、一様分布下での学習と比較して、このクラスの関数を学習する際の計算コストを大幅に削減できることを示す。
我々は分析を支援するために実験を行う。
さらに、他の種類の関数、すなわち'Hamming Mixs'に対して、有界な製品分布を含むCL戦略は有益ではなく、無有界な多くのカリキュラムステップを持つCLがこのクラスを効率的に学習できると推測する。
関連論文リスト
- Does the Definition of Difficulty Matter? Scoring Functions and their Role for Curriculum Learning [42.4526628515253]
CL(Curriculum Learning)は、サンプルを学習プロセスに徐々に導入する機械学習トレーニング戦略である。
サンプル難易度推定のための最も一般的なスコアリング関数のロバスト性と類似性について検討する。
その結果,ランダムシード間のスコアリング関数のロバスト性はCL性能と正の相関関係があることが判明した。
論文 参考訳(メタデータ) (2024-11-01T18:55:31Z) - Collaborative Learning with Different Labeling Functions [7.228285747845779]
我々は、$n$のデータ分布ごとに正確な分類器を学習することを目的とした、協調型PAC学習の亜種について研究する。
データ分布がより弱い実現可能性の仮定を満たす場合、サンプル効率の学習は依然として可能であることを示す。
論文 参考訳(メタデータ) (2024-02-16T04:32:22Z) - A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Do Pre-trained Models Benefit Equally in Continual Learning? [25.959813589169176]
既存の継続学習(CL)の研究は主に、ゼロから訓練されたモデルのアルゴリズムの開発に費やされている。
コントリビュートベンチマークのパフォーマンスは高いが、これらのアルゴリズムは現実のシナリオで劇的なパフォーマンス低下を示す。
本稿では,CLに対する事前学習の体系的導入を提唱する。
論文 参考訳(メタデータ) (2022-10-27T18:03:37Z) - Learnable Distribution Calibration for Few-Shot Class-Incremental
Learning [122.2241120474278]
FSCIL(Few-shot class-incremental Learning)は、古いクラス分布を記憶し、少数のトレーニングサンプルから新しいクラス分布を推定するという課題に直面している。
本稿では,これら2つの課題を統一フレームワークを用いて体系的に解決することを目的とした,学習可能な分布校正手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:40:26Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - Contrastive Learning with Adversarial Examples [79.39156814887133]
コントラスト学習(Contrastive Learning, CL)は、視覚表現の自己教師型学習(SSL)において一般的な手法である。
本稿では,コンストラクティブ・ラーニングのための新しい逆例群を紹介し,これらの例を用いてCLAEと表記されるSSLの新しい逆トレーニングアルゴリズムを定義する。
論文 参考訳(メタデータ) (2020-10-22T20:45:10Z) - Generalized Zero-Shot Learning Via Over-Complete Distribution [79.5140590952889]
そこで本稿では,CVAE (Conditional Variational Autoencoder) を用いたOCD(Over-Complete Distribution) の生成を提案する。
フレームワークの有効性は,Zero-Shot LearningプロトコルとGeneralized Zero-Shot Learningプロトコルの両方を用いて評価する。
論文 参考訳(メタデータ) (2020-04-01T19:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。