論文の概要: Error Scaling Laws for Kernel Classification under Source and Capacity
Conditions
- arxiv url: http://arxiv.org/abs/2201.12655v3
- Date: Wed, 6 Sep 2023 12:20:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 20:26:39.700461
- Title: Error Scaling Laws for Kernel Classification under Source and Capacity
Conditions
- Title(参考訳): ソースおよび容量条件下におけるカーネル分類の誤差スケーリング則
- Authors: Hugo Cui, Bruno Loureiro, Florent Krzakala, Lenka Zdeborov\'a
- Abstract要約: 標準のソースとキャパシティ条件を満たす重要なデータセットのクラスを考察する。
ソースとキャパシティ係数の関数として誤分類(予測)誤差の減衰率を導出する。
この結果は、カーネル分類におけるスケーリング法則の指数の明示的な予測と見なすことができる。
- 参考スコア(独自算出の注目度): 26.558090928198187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of kernel classification. While worst-case bounds on
the decay rate of the prediction error with the number of samples are known for
some classifiers, they often fail to accurately describe the learning curves of
real data sets. In this work, we consider the important class of data sets
satisfying the standard source and capacity conditions, comprising a number of
real data sets as we show numerically. Under the Gaussian design, we derive the
decay rates for the misclassification (prediction) error as a function of the
source and capacity coefficients. We do so for two standard kernel
classification settings, namely margin-maximizing Support Vector Machines (SVM)
and ridge classification, and contrast the two methods. We find that our rates
tightly describe the learning curves for this class of data sets, and are also
observed on real data. Our results can also be seen as an explicit prediction
of the exponents of a scaling law for kernel classification that is accurate on
some real datasets.
- Abstract(参考訳): カーネル分類の問題を考える。
サンプル数による予測誤差の減衰率の最悪のケース境界はいくつかの分類器で知られているが、実際のデータセットの学習曲線を正確に記述できないことが多い。
本研究では, 標準の情報源とキャパシティ条件を満たす重要なデータセットのクラスについて検討し, 数値的に示すような実データ集合を多数含む。
ガウス設計の下では、ソース係数とキャパシティ係数の関数として誤分類(予測)誤差の減衰率を導出する。
我々は2つの標準カーネル分類設定、すなわちマージン最大化サポートベクターマシン(svm)とリッジ分類を行い、この2つの手法を対比する。
我々のレートは、このクラスのデータセットの学習曲線を強く記述しており、実際のデータでも観察されている。
我々の結果は、実際のデータセットで正確であるカーネル分類のスケーリング法則の指数の明示的な予測と見なすこともできる。
関連論文リスト
- Limits to classification performance by relating Kullback-Leibler
divergence to Cohen's Kappa [0.0]
理論と手法は詳細に議論され、モンテカルロのデータと実際のデータセットに適用される。
いずれの場合も、この分析は、2つのクラスに対する基礎となる確率密度関数のために、アルゴリズムがこれ以上良い性能を発揮できなかったことを示している。
論文 参考訳(メタデータ) (2024-03-03T17:36:42Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Adjusting Logit in Gaussian Form for Long-Tailed Visual Recognition [37.62659619941791]
特徴レベルの観点から、長い尾の視覚認識の問題について検討する。
2つの新しいロジット調整法が提案され,計算オーバーヘッドの緩やかなモデル性能が向上した。
ベンチマークデータセットを用いて行った実験は,提案手法の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-18T02:06:06Z) - When Noisy Labels Meet Long Tail Dilemmas: A Representation Calibration
Method [40.25499257944916]
実世界のデータセットは騒々しくラベル付けされ、クラス不均衡である。
本稿では,表現キャリブレーション手法RCALを提案する。
我々は,表現キャリブレーションの有効性を論じるために理論的結果を得る。
論文 参考訳(メタデータ) (2022-11-20T11:36:48Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Classification and Uncertainty Quantification of Corrupted Data using
Semi-Supervised Autoencoders [11.300365160909879]
本稿では,強い破損したデータを分類し,不確実性を定量化する確率論的手法を提案する。
破損しないデータに基づいてトレーニングされた半教師付きオートエンコーダが基盤となるアーキテクチャである。
モデルの不確実性は、その分類が正しいか間違っているかに強く依存していることを示す。
論文 参考訳(メタデータ) (2021-05-27T18:47:55Z) - Risk Bounds for Over-parameterized Maximum Margin Classification on
Sub-Gaussian Mixtures [100.55816326422773]
線形分類問題に対する最大マージン分類器の現象について検討する。
その結果、良性的なオーバーフィットが起きる条件を正確に特徴づけます。
論文 参考訳(メタデータ) (2021-04-28T08:25:16Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Calibration of Neural Networks using Splines [51.42640515410253]
キャリブレーション誤差の測定は、2つの経験的分布を比較します。
古典的コルモゴロフ・スミルノフ統計テスト(KS)にインスパイアされたビンニングフリーキャリブレーション尺度を導入する。
提案手法は,KS誤差に対する既存の手法と,他の一般的なキャリブレーション手法とを一貫して比較する。
論文 参考訳(メタデータ) (2020-06-23T07:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。