論文の概要: Linear Algorithms for Nonparametric Multiclass Probability Estimation
- arxiv url: http://arxiv.org/abs/2205.12460v1
- Date: Wed, 25 May 2022 03:15:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 13:30:06.143250
- Title: Linear Algorithms for Nonparametric Multiclass Probability Estimation
- Title(参考訳): 非パラメトリック多クラス確率推定のための線形アルゴリズム
- Authors: Liyun Zeng, Hao Helen Zhang
- Abstract要約: アンサンブル学習によってクラス確率を推定するために,サポートベクトルマシン (wSVM) が開発された。
計算効率と推定精度の面でwSVMをさらに向上するために,ベースライン学習とOVA学習という2つの新しい学習手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiclass probability estimation is the problem of estimating conditional
probabilities of a data point belonging to a class given its covariate
information. It has broad applications in statistical analysis and data
science. Recently a class of weighted Support Vector Machines (wSVMs) have been
developed to estimate class probabilities through ensemble learning for
$K$-class problems (Wang, Shen and Liu, 2008; Wang, Zhang and Wu, 2019), where
$K$ is the number of classes. The estimators are robust and achieve high
accuracy for probability estimation, but their learning is implemented through
pairwise coupling, which demand polynomial time in $K$. In this paper, we
propose two new learning schemes, the baseline learning and the One-vs-All
(OVA) learning, to further improve wSVMs in terms of computational efficiency
and estimation accuracy. In particular, the baseline learning has optimal
computational complexity in the sense that it is linear in $K$. The resulting
estimators are distribution-free and shown to be consistent. We further conduct
extensive numerical experiments to demonstrate finite sample performance.
- Abstract(参考訳): 多クラス確率推定は、その共変量情報からクラスに属するデータポイントの条件付き確率を推定する問題である。
統計分析やデータ科学に広く応用されている。
最近では、K$クラス問題(Wang, Shen and Liu, 2008; Wang, Zhang and Wu, 2019)のアンサンブル学習を通じて、クラス確率を推定するために、重み付きサポートベクトルマシン(wSVM)のクラスが開発された。
推定器は頑健であり、確率推定の精度が高いが、その学習はペア結合によって実施され、多項式時間は$K$である。
本稿では、計算効率と推定精度の面でwsvmをさらに向上させるために、ベースライン学習と1-vs-all(ova)学習という2つの新しい学習方式を提案する。
特に、ベースライン学習は、$K$で線型であるという意味で、最適な計算複雑性を持つ。
結果として得られる推定値は分布フリーであり、一貫性があることが示される。
さらに, 有限サンプル性能を示すため, 広範な数値実験を行った。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Collaborative Learning with Different Labeling Functions [7.228285747845779]
我々は、$n$のデータ分布ごとに正確な分類器を学習することを目的とした、協調型PAC学習の亜種について研究する。
データ分布がより弱い実現可能性の仮定を満たす場合、サンプル効率の学習は依然として可能であることを示す。
論文 参考訳(メタデータ) (2024-02-16T04:32:22Z) - Sparse Learning and Class Probability Estimation with Weighted Support
Vector Machines [1.3597551064547502]
重み付きサポートベクトルマシン (wSVM) は、高い精度で様々な問題に対するクラス確率と分類を頑健に予測する上で、優れた値を示している。
スパース学習問題に対する精度の高い確率推定と自動変数選択を組み込んだ新しいwSVMフレームワークを提案する。
提案したwSVMsベースのスパース学習手法は幅広い応用があり、アンサンブル学習によりさらに$K$クラスに拡張できる。
論文 参考訳(メタデータ) (2023-12-17T06:12:33Z) - Online non-parametric likelihood-ratio estimation by Pearson-divergence
functional minimization [55.98760097296213]
iid 観測のペア $(x_t sim p, x'_t sim q)$ が時間の経過とともに観測されるような,オンラインな非パラメトリック LRE (OLRE) のための新しいフレームワークを提案する。
本稿では,OLRE法の性能に関する理論的保証と,合成実験における実証的検証について述べる。
論文 参考訳(メタデータ) (2023-11-03T13:20:11Z) - Nearly Minimax Optimal Reinforcement Learning for Linear Markov Decision
Processes [80.89852729380425]
そこで本研究では,最小限の最小残差である$tilde O(dsqrtH3K)$を計算効率よく実現したアルゴリズムを提案する。
我々の研究は線形 MDP を用いた最適 RL に対する完全な答えを提供する。
論文 参考訳(メタデータ) (2022-12-12T18:58:59Z) - Robust Methods for High-Dimensional Linear Learning [0.0]
統計的に頑健で計算効率の良い線形学習法を高次元バッチ設定で提案する。
バニラスパース、グループスパース、低ランク行列回復など、いくつかのアプリケーションでフレームワークをインスタンス化する。
バニラ $s$-sparsity の場合、重いテールと $eta$-corruption の下で $slog (d)/n$ レートに達することができます。
論文 参考訳(メタデータ) (2022-08-10T17:00:41Z) - Testing distributional assumptions of learning algorithms [5.204779946147061]
テストレーナー対 $(mathcalA,mathcalT)$ の設計について検討する。
データ中の例の分布がテスタを$mathcalT$に渡せば、データ上の非依存な$mathcalA$の出力を安全に信頼できることを示す。
論文 参考訳(メタデータ) (2022-04-14T19:10:53Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Instability, Computational Efficiency and Statistical Accuracy [101.32305022521024]
我々は,人口レベルでのアルゴリズムの決定論的収束率と,$n$サンプルに基づく経験的対象に適用した場合の(不安定性)の間の相互作用に基づいて,統計的精度を得るフレームワークを開発する。
本稿では,ガウス混合推定,非線形回帰モデル,情報的非応答モデルなど,いくつかの具体的なモデルに対する一般結果の応用について述べる。
論文 参考訳(メタデータ) (2020-05-22T22:30:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。