論文の概要: Agnostically Learning Single-Index Models using Omnipredictors
- arxiv url: http://arxiv.org/abs/2306.10615v1
- Date: Sun, 18 Jun 2023 18:40:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 19:34:29.169962
- Title: Agnostically Learning Single-Index Models using Omnipredictors
- Title(参考訳): Omnipredictor を用いた単一インデックスモデルの学習
- Authors: Aravind Gollakota and Parikshit Gopalan and Adam R. Klivans and
Konstantinos Stavropoulos
- Abstract要約: 任意のモノトーンとリプシッツのアクティベーションを持つSIM(Single-Index Models)を不可知的に学習する最初の結果を与える。
また、GLMtronのような標準アルゴリズムと非依存設定におけるロジスティック回帰の新しい保証も提供する。
- 参考スコア(独自算出の注目度): 15.36798336447733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We give the first result for agnostically learning Single-Index Models (SIMs)
with arbitrary monotone and Lipschitz activations. All prior work either held
only in the realizable setting or required the activation to be known.
Moreover, we only require the marginal to have bounded second moments, whereas
all prior work required stronger distributional assumptions (such as
anticoncentration or boundedness). Our algorithm is based on recent work by
[GHK$^+$23] on omniprediction using predictors satisfying calibrated
multiaccuracy. Our analysis is simple and relies on the relationship between
Bregman divergences (or matching losses) and $\ell_p$ distances. We also
provide new guarantees for standard algorithms like GLMtron and logistic
regression in the agnostic setting.
- Abstract(参考訳): 任意の単調およびリプシッツのアクティベーションを持つSIM(Single-Index Models)を学習するための最初の結果を与える。
以前のすべての作業は、実現可能な設定でのみ保持するか、アクティベーションを知る必要がある。
さらに、有界な第二モーメントを持つことは限界しか必要としないが、事前の作業はすべてより強い分布仮定(反集中や有界性など)を必要とする。
本アルゴリズムは, [GHK$^+$23] の検定多重精度を満たす予測器を用いた全方位予測に関する最近の研究に基づいている。
我々の分析は単純であり、ブレグマンの発散(あるいは損失の一致)と$\ell_p$距離の関係に依存する。
また、GLMtronのような標準アルゴリズムと非依存設定におけるロジスティック回帰の新しい保証も提供する。
関連論文リスト
- Robustly Learning Single-Index Models via Alignment Sharpness [40.886706402941435]
単行数モデル学習の問題点を,無知モデルにおける損失$L2$で検討する。
最適損失に対する定数係数近似を達成し,効率的な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-27T18:48:07Z) - Adaptive, Doubly Optimal No-Regret Learning in Strongly Monotone and Exp-Concave Games with Gradient Feedback [75.29048190099523]
オンライン勾配降下(OGD)は、強い凸性や単調性仮定の下では二重最適であることが知られている。
本稿では,これらのパラメータの事前知識を必要としない完全適応型OGDアルゴリズム,textsfAdaOGDを設計する。
論文 参考訳(メタデータ) (2023-10-21T18:38:13Z) - Online Learning with Adversaries: A Differential-Inclusion Analysis [52.43460995467893]
我々は,完全に非同期なオンラインフェデレート学習のための観察行列ベースのフレームワークを提案する。
我々の主な結果は、提案アルゴリズムがほぼ確実に所望の平均$mu.$に収束することである。
新たな差分包摂型2時間スケール解析を用いて,この収束を導出する。
論文 参考訳(メタデータ) (2023-04-04T04:32:29Z) - Bayesian decision-making under misspecified priors with applications to
meta-learning [64.38020203019013]
トンプソンサンプリングやその他のシーケンシャルな意思決定アルゴリズムは、文脈的包帯における探索と探索のトレードオフに取り組むための一般的なアプローチである。
性能は不特定な事前条件で優雅に低下することを示す。
論文 参考訳(メタデータ) (2021-07-03T23:17:26Z) - Navigating to the Best Policy in Markov Decision Processes [68.8204255655161]
マルコフ決定過程における純粋探索問題について検討する。
エージェントはアクションを逐次選択し、結果のシステム軌道から可能な限り早くベストを目標とする。
論文 参考訳(メタデータ) (2021-06-05T09:16:28Z) - A Novel Regression Loss for Non-Parametric Uncertainty Optimization [7.766663822644739]
不確実性の定量化は、安全な機械学習を確立する最も有望なアプローチの1つである。
これまでの最も一般的なアプローチの1つはモンテカルロドロップアウトで、計算量的に安価で、実際に簡単に適用できる。
この問題に対処するため,第2モーメント損失(UCI)と呼ばれる新たな目標を提案する。
論文 参考訳(メタデータ) (2021-01-07T19:12:06Z) - Statistical-Query Lower Bounds via Functional Gradients [19.5924910463796]
我々は、寛容$n- (1/epsilon)b$の統計クエリアルゴリズムは、一定の$bに対して少なくとも$2nc epsilon$クエリを使用する必要があることを示す。
実数値学習では珍しいSQ学習アルゴリズムが一般的である(相関学習とは対照的に)。
論文 参考訳(メタデータ) (2020-06-29T05:15:32Z) - Learning Halfspaces with Tsybakov Noise [50.659479930171585]
テュバコフ雑音の存在下でのハーフスペースの学習可能性について検討する。
真半空間に関して誤分類誤差$epsilon$を達成するアルゴリズムを与える。
論文 参考訳(メタデータ) (2020-06-11T14:25:02Z) - Breaking the Sample Size Barrier in Model-Based Reinforcement Learning
with a Generative Model [50.38446482252857]
本稿では、生成モデル(シミュレータ)へのアクセスを想定して、強化学習のサンプル効率について検討する。
最初に$gamma$-discounted infinite-horizon Markov decision process (MDPs) with state space $mathcalS$ and action space $mathcalA$を考える。
対象の精度を考慮すれば,モデルに基づく計画アルゴリズムが最小限のサンプルの複雑さを実現するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-05-26T17:53:18Z) - A General Theory of the Stochastic Linear Bandit and Its Applications [8.071506311915398]
本稿では,線形バンディット問題に対する一般解析フレームワークとアルゴリズム群を紹介する。
予測における最適化という新たな概念は、OFULの過剰探索問題を減少させるSieeved greedy(SG)と呼ばれる新しいアルゴリズムを生み出します。
SGが理論的に最適であることを示すことに加えて、実験シミュレーションにより、SGはgreedy、OFUL、TSといった既存のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-02-12T18:54:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。