論文の概要: Error Rates for Kernel Classification under Source and Capacity
Conditions
- arxiv url: http://arxiv.org/abs/2201.12655v1
- Date: Sat, 29 Jan 2022 20:39:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 10:20:11.408233
- Title: Error Rates for Kernel Classification under Source and Capacity
Conditions
- Title(参考訳): ソースおよびキャパシティ条件下におけるカーネル分類の誤り率
- Authors: Hugo Cui, Bruno Loureiro, Florent Krzakala, Lenka Zdeborov\'a
- Abstract要約: 本稿では,ガウスデータ設計におけるカーネル分類の問題点について考察する。
ソースとキャパシティ係数の関数として誤差率を導出する。
- 参考スコア(独自算出の注目度): 24.073221004661427
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this manuscript, we consider the problem of kernel classification under
the Gaussian data design, and under source and capacity assumptions on the
dataset. While the decay rates of the prediction error have been extensively
studied under much more generic assumptions for kernel ridge regression,
deriving decay rates for the classification problem has been hitherto
considered a much more challenging task. In this work we leverage recent
analytical results for learning curves of linear classification with generic
loss function to derive the rates of decay of the misclassification
(prediction) error with the sample complexity for two standard classification
settings, namely margin-maximizing Support Vector Machines (SVM) and ridge
classification. Using numerical and analytical arguments, we derive the error
rates as a function of the source and capacity coefficients, and contrast the
two methods.
- Abstract(参考訳): 本稿では,ガウス型データ設計におけるカーネル分類の問題と,データセット上のソースとキャパシティの仮定について考察する。
予測誤差の減衰率は、カーネルリッジ回帰のより一般的な仮定の下で広範囲に研究されてきたが、分類問題の崩壊率の導出は、より困難な課題であると考えられている。
本研究では,汎用的損失関数を持つ線形分類の学習曲線に対する最近の解析結果を用いて,誤り分類(予測)誤差の減衰率とサンプルの複雑さ,すなわちマージン最大化サポートベクターマシン(svm)とリッジ分類の2つの標準分類設定を導出する。
数値的および解析的な引数を用いて、誤差率をソース係数とキャパシティ係数の関数として導出し、2つの手法を対比する。
関連論文リスト
- Limits to classification performance by relating Kullback-Leibler
divergence to Cohen's Kappa [0.0]
理論と手法は詳細に議論され、モンテカルロのデータと実際のデータセットに適用される。
いずれの場合も、この分析は、2つのクラスに対する基礎となる確率密度関数のために、アルゴリズムがこれ以上良い性能を発揮できなかったことを示している。
論文 参考訳(メタデータ) (2024-03-03T17:36:42Z) - Deep Imbalanced Regression via Hierarchical Classification Adjustment [50.19438850112964]
コンピュータビジョンにおける回帰タスクは、しばしば、対象空間をクラスに定量化することで分類される。
トレーニングサンプルの大多数は目標値の先頭にあるが、少数のサンプルは通常より広い尾幅に分布する。
不均衡回帰タスクを解くために階層型分類器を構築することを提案する。
不均衡回帰のための新しい階層型分類調整(HCA)は,3つのタスクにおいて優れた結果を示す。
論文 参考訳(メタデータ) (2023-10-26T04:54:39Z) - Adjusting Logit in Gaussian Form for Long-Tailed Visual Recognition [37.62659619941791]
特徴レベルの観点から、長い尾の視覚認識の問題について検討する。
2つの新しいロジット調整法が提案され,計算オーバーヘッドの緩やかなモデル性能が向上した。
ベンチマークデータセットを用いて行った実験は,提案手法の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-18T02:06:06Z) - When Noisy Labels Meet Long Tail Dilemmas: A Representation Calibration
Method [40.25499257944916]
実世界のデータセットは騒々しくラベル付けされ、クラス不均衡である。
本稿では,表現キャリブレーション手法RCALを提案する。
我々は,表現キャリブレーションの有効性を論じるために理論的結果を得る。
論文 参考訳(メタデータ) (2022-11-20T11:36:48Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Classification and Uncertainty Quantification of Corrupted Data using
Semi-Supervised Autoencoders [11.300365160909879]
本稿では,強い破損したデータを分類し,不確実性を定量化する確率論的手法を提案する。
破損しないデータに基づいてトレーニングされた半教師付きオートエンコーダが基盤となるアーキテクチャである。
モデルの不確実性は、その分類が正しいか間違っているかに強く依存していることを示す。
論文 参考訳(メタデータ) (2021-05-27T18:47:55Z) - Risk Bounds for Over-parameterized Maximum Margin Classification on
Sub-Gaussian Mixtures [100.55816326422773]
線形分類問題に対する最大マージン分類器の現象について検討する。
その結果、良性的なオーバーフィットが起きる条件を正確に特徴づけます。
論文 参考訳(メタデータ) (2021-04-28T08:25:16Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Calibration of Neural Networks using Splines [51.42640515410253]
キャリブレーション誤差の測定は、2つの経験的分布を比較します。
古典的コルモゴロフ・スミルノフ統計テスト(KS)にインスパイアされたビンニングフリーキャリブレーション尺度を導入する。
提案手法は,KS誤差に対する既存の手法と,他の一般的なキャリブレーション手法とを一貫して比較する。
論文 参考訳(メタデータ) (2020-06-23T07:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。