論文の概要: Learning curves for the multi-class teacher-student perceptron
- arxiv url: http://arxiv.org/abs/2203.12094v1
- Date: Tue, 22 Mar 2022 23:16:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 14:09:05.128914
- Title: Learning curves for the multi-class teacher-student perceptron
- Title(参考訳): 多クラス教師学生パーセプトロンの学習曲線
- Authors: Elisabetta Cornacchia, Francesca Mignacco, Rodrigo Veiga, C\'edric
Gerbelot, Bruno Loureiro, Lenka Zdeborov\'a
- Abstract要約: 高次元学習理論における最も古典的な結果の1つは、二項分類の一般化誤差に対する閉形式表現である。
ベイズ最適推定と経験的リスク最小化(ERM)の両方が、この設定のために広範囲に分析された。
しかし、対応するマルチスチューデントパーセプトロンの類似解析が欠如していた。
- 参考スコア(独自算出の注目度): 5.480546613836199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the most classical results in high-dimensional learning theory
provides a closed-form expression for the generalisation error of binary
classification with the single-layer teacher-student perceptron on i.i.d.
Gaussian inputs. Both Bayes-optimal estimation and empirical risk minimisation
(ERM) were extensively analysed for this setting. At the same time, a
considerable part of modern machine learning practice concerns multi-class
classification. Yet, an analogous analysis for the corresponding multi-class
teacher-student perceptron was missing. In this manuscript we fill this gap by
deriving and evaluating asymptotic expressions for both the Bayes-optimal and
ERM generalisation errors in the high-dimensional regime. For Gaussian teacher
weights, we investigate the performance of ERM with both cross-entropy and
square losses, and explore the role of ridge regularisation in approaching
Bayes-optimality. In particular, we observe that regularised cross-entropy
minimisation yields close-to-optimal accuracy. Instead, for a binary teacher we
show that a first-order phase transition arises in the Bayes-optimal
performance.
- Abstract(参考訳): 高次元学習理論における最も古典的な結果の1つは、ガウス入力の単層教師-学生パーセプトロンによる二項分類の一般化誤差に対する閉形式表現である。
ベイズ最適推定と経験的リスク最小化(erm)はどちらもこの設定のために広範囲に分析された。
同時に、現代の機械学習プラクティスのかなりの部分は、多クラス分類に関するものだ。
しかし、それに対応するマルチクラスの教師・生徒のパーセプトロンに対する類似の分析は欠落していた。
本稿では,高次元状態におけるベイズ最適化およびERM一般化誤差の漸近表現の導出と評価により,このギャップを埋める。
ガウスの教師の重み付けについて,クロスエントロピーと正方形損失の両方を伴うermの性能を調査し,ベイズ最適化へのアプローチにおけるリッジ正則化の役割について検討した。
特に、正規化されたクロスエントロピー最小化は、最適に近い精度を得る。
その代わり、二進教師に対しては、ベイズ最適性能において一階位相遷移が発生することを示す。
関連論文リスト
- A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Learning a Gaussian Mixture for Sparsity Regularization in Inverse
Problems [2.375943263571389]
逆問題では、スパーシティ事前の組み込みは、解に対する正則化効果をもたらす。
本稿では,ガウスの混合として事前に定式化された確率的疎性について提案する。
我々は、このネットワークのパラメータを推定するために、教師なしのトレーニング戦略と教師なしのトレーニング戦略をそれぞれ導入した。
論文 参考訳(メタデータ) (2024-01-29T22:52:57Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Nonasymptotic theory for two-layer neural networks: Beyond the
bias-variance trade-off [10.182922771556742]
本稿では,ReLUアクティベーション機能を持つ2層ニューラルネットワークに対する漸近的一般化理論を提案する。
過度にパラメータ化されたランダムな特徴モデルは次元性の呪いに悩まされ、従って準最適であることを示す。
論文 参考訳(メタデータ) (2021-06-09T03:52:18Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - Binary Classification of Gaussian Mixtures: Abundance of Support
Vectors, Benign Overfitting and Regularization [39.35822033674126]
生成ガウス混合モデルに基づく二項線形分類について検討する。
後者の分類誤差に関する新しい非漸近境界を導出する。
この結果は, 確率が一定である雑音モデルに拡張される。
論文 参考訳(メタデータ) (2020-11-18T07:59:55Z) - Deep Speaker Vector Normalization with Maximum Gaussianality Training [13.310988353839237]
ディープスピーカ埋め込みの鍵となる問題は、結果のディープスピーカベクトルが不規則に分散する傾向があることである。
従来の研究では,新しい識別正規化フロー(DNF)モデルに基づく深部正規化手法を提案した。
この顕著な成功にもかかわらず、DNFモデルによって生成される潜伏符号は概して同質でもガウス的でもないことを実証的に見出した。
本稿では,潜在符号のガウス性を直接最大化する最大ガウス性(MG)トレーニング手法を提案する。
論文 参考訳(メタデータ) (2020-10-30T09:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。