論文の概要: Stable Sample Compression Schemes: New Applications and an Optimal SVM
Margin Bound
- arxiv url: http://arxiv.org/abs/2011.04586v1
- Date: Mon, 9 Nov 2020 17:30:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 00:24:16.531613
- Title: Stable Sample Compression Schemes: New Applications and an Optimal SVM
Margin Bound
- Title(参考訳): 安定したサンプル圧縮スキーム:新しいアプリケーションと最適なSVMマージン境界
- Authors: Steve Hanneke, Aryeh Kontorovich
- Abstract要約: 安定なサンプル圧縮スキームに基づいて教師付き学習アルゴリズム群を解析する。
我々は、いくつかの学習アルゴリズムに対して、データ依存の一般化境界を新しく、あるいは改良したものに導出する。
- 参考スコア(独自算出の注目度): 21.445332336280874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We analyze a family of supervised learning algorithms based on sample
compression schemes that are stable, in the sense that removing points from the
training set which were not selected for the compression set does not alter the
resulting classifier. We use this technique to derive a variety of novel or
improved data-dependent generalization bounds for several learning algorithms.
In particular, we prove a new margin bound for SVM, removing a log factor. The
new bound is provably optimal. This resolves a long-standing open question
about the PAC margin bounds achievable by SVM.
- Abstract(参考訳): 本研究では, 安定なサンプル圧縮スキームに基づく教師付き学習アルゴリズム群を解析し, 圧縮セットに選択されていないトレーニングセットから点を除去しても, 結果の分類が変更されないことを考慮した。
この手法を用いて,様々な学習アルゴリズムにおけるデータ依存一般化境界を導出する。
特に、SVMの新たなマージンを証明し、ログファクタを削除します。
新しい境界は確実に最適である。
このことは、SVM によって達成可能な PAC マージン境界に関する長年の未解決問題を解決する。
関連論文リスト
- Fast Semisupervised Unmixing Using Nonconvex Optimization [80.11512905623417]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - Optimization meets Machine Learning: An Exact Algorithm for Semi-Supervised Support Vector Machines [0.9831489366502302]
サポートベクトルマシン(SVM)は、バイナリ分類のための教師付き学習モデルである。
半定値プログラミング(SDP)緩和を用いたS3VMの新しい分岐手法を提案する。
SDP緩和は文献で利用できるものよりもはるかに強い境界を提供する。
論文 参考訳(メタデータ) (2023-12-15T13:44:54Z) - Variance-Dependent Regret Bounds for Linear Bandits and Reinforcement
Learning: Adaptivity and Computational Efficiency [90.40062452292091]
本稿では,不整合雑音を持つ線形帯域に対する計算効率のよい最初のアルゴリズムを提案する。
我々のアルゴリズムは未知のノイズの分散に適応し、$tildeO(d sqrtsum_k = 1K sigma_k2 + d)$ regretを達成する。
また、強化学習において、線形混合マルコフ決定過程(MDP)に対する分散適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-21T00:17:24Z) - Sharp Variance-Dependent Bounds in Reinforcement Learning: Best of Both
Worlds in Stochastic and Deterministic Environments [48.96971760679639]
マルコフ決定過程(MDP)の分散依存的後悔境界について検討する。
環境の微細な分散特性を特徴付けるための2つの新しい環境規範を提案する。
モデルに基づく手法では、MVPアルゴリズムの変種を設計する。
特に、この境界は極小かつ決定論的 MDP に対して同時に最適である。
論文 参考訳(メタデータ) (2023-01-31T06:54:06Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Support Vector Machines with the Hard-Margin Loss: Optimal Training via
Combinatorial Benders' Cuts [8.281391209717105]
我々は、グローバルな最適性のために、ハードマージンのSVMモデルをトレーニングする方法を示す。
本稿では,この問題を解くための反復サンプリングと部分分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-15T18:21:51Z) - Adaptive Sampling for Best Policy Identification in Markov Decision
Processes [79.4957965474334]
本稿では,学習者が生成モデルにアクセスできる場合の,割引マルコフ決定(MDP)における最良の政治的識別の問題について検討する。
最先端アルゴリズムの利点を論じ、解説する。
論文 参考訳(メタデータ) (2020-09-28T15:22:24Z) - Least Squares Regression with Markovian Data: Fundamental Limits and
Algorithms [69.45237691598774]
マルコフ連鎖からデータポイントが依存しサンプリングされる最小二乗線形回帰問題について検討する。
この問題を$tau_mathsfmix$という観点から、鋭い情報理論のミニマックス下限を確立する。
本稿では,経験的リプレイに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T04:26:50Z) - Distributionally Robust Weighted $k$-Nearest Neighbors [21.537952410507483]
少数のサンプルから堅牢な分類器を学ぶことは、マシンラーニングにおける重要な課題である。
本稿では, 重み付き$k$-アネレスト近傍のミニマックス分布に頑健な定式化について検討する。
我々は,この関数最適化問題を効率的に解くアルゴリズムである textttDr.k-NN を開発した。
論文 参考訳(メタデータ) (2020-06-07T00:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。