論文の概要: A Theory of Universal Agnostic Learning
- arxiv url: http://arxiv.org/abs/2601.20961v1
- Date: Wed, 28 Jan 2026 19:03:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.394545
- Title: A Theory of Universal Agnostic Learning
- Title(参考訳): ユニバーサル・アグノスティック・ラーニングの理論
- Authors: Steve Hanneke, Shay Moran,
- Abstract要約: 設定における二項分類のための最適普遍率の完全な理論を提供する。
任意の概念クラスにおいて、過大誤差率の最適普遍収束率は、$e-n$, $e-o(n)$, $o(n-1/2$)$, あるいは任意に遅くなる。
- 参考スコア(独自算出の注目度): 52.1555858290493
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We provide a complete theory of optimal universal rates for binary classification in the agnostic setting. This extends the realizable-case theory of Bousquet, Hanneke, Moran, van Handel, and Yehudayoff (2021) by removing the realizability assumption on the distribution. We identify a fundamental tetrachotomy of optimal rates: for every concept class, the optimal universal rate of convergence of the excess error rate is one of $e^{-n}$, $e^{-o(n)}$, $o(n^{-1/2})$, or arbitrarily slow. We further identify simple combinatorial structures which determine which of these categories any given concept class falls into.
- Abstract(参考訳): 我々は、無知環境における二項分類のための最適普遍率の完全な理論を提供する。
これにより、ブーケ、ハネケ、モラン、ファン・ハンデル、イェーダホフ(2021年)の帰結可能なケース理論が拡張され、分布上の実現可能性の仮定が取り除かれる。
任意の概念クラスにおいて、過剰な誤差率の収束の最適普遍率は、$e^{-n}$, $e^{-o(n)}$, $o(n^{-1/2})$, 任意に遅い。
さらに、任意の概念クラスがどのカテゴリに該当するかを決定する単純な組合せ構造を同定する。
関連論文リスト
- Universal rates of ERM for agnostic learning [15.001378595582269]
実証的リスク最小化原理はPAC理論の基本であり、実践的な機械学習においてユビキタスである。
我々は、agnostic universal rateの可能性を探求し、$e-n$、$o(n-1/2)$、または任意に遅くする。
論文 参考訳(メタデータ) (2025-06-17T02:02:11Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - Federated Learning as Variational Inference: A Scalable Expectation
Propagation Approach [66.9033666087719]
本稿では,推論の視点を拡張し,フェデレート学習の変分推論の定式化について述べる。
我々は、FedEPを標準フェデレーション学習ベンチマークに適用し、収束速度と精度の両方において、強いベースラインを上回ります。
論文 参考訳(メタデータ) (2023-02-08T17:58:11Z) - Multiclass Learnability Beyond the PAC Framework: Universal Rates and
Partial Concept Classes [31.2676304636432]
本研究では,有界なラベル数$k$の多クラス分類の問題について,実現可能な設定で検討する。
従来のPACモデルを(a)分布依存学習率、(b)データ依存仮定下での学習率に拡張する。
論文 参考訳(メタデータ) (2022-10-05T14:36:27Z) - Linear Speedup in Personalized Collaborative Learning [69.45124829480106]
フェデレート学習におけるパーソナライゼーションは、モデルのバイアスをトレーディングすることで、モデルの精度を向上させることができる。
ユーザの目的の最適化として、パーソナライズされた協調学習問題を定式化する。
分散の低減のためにバイアスを最適にトレードオフできる条件について検討する。
論文 参考訳(メタデータ) (2021-11-10T22:12:52Z) - Permutation Compressors for Provably Faster Distributed Nonconvex
Optimization [68.8204255655161]
本稿では,Gorbunov et al (2021) の MARINA 法が,理論的な通信複雑性の観点から最先端の手法とみなすことができることを示す。
MARINAの理論は、古典的な独立圧縮機設定を超えて、潜在的にエミュレートされた圧縮機の理論を支持するものである。
論文 参考訳(メタデータ) (2021-10-07T09:38:15Z) - Beyond $\mathcal{H}$-Divergence: Domain Adaptation Theory With
Jensen-Shannon Divergence [21.295136514836788]
広範に評価された経験的ドメイン逆行訓練と,$mathcalH$-divergenceに基づく理論上の相似性を明らかにする。
我々は,Jensen-Shannon分散に基づく上層および下層ターゲットのリスク境界を直接証明することによって,新たな理論的枠組みを確立する。
論文 参考訳(メタデータ) (2020-07-30T16:19:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。