#### 論文の概要: Agnostic proper learning of monotone functions: beyond the black-box correction barrier

• arxiv url: http://arxiv.org/abs/2304.02700v3
• Date: Wed, 24 May 2023 16:47:32 GMT
• ステータス: 処理完了
• システム内更新日: 2023-05-26 01:35:32.356773
• Title: Agnostic proper learning of monotone functions: beyond the black-box correction barrier
• Title（参考訳）: 単調関数の固有学習--ブラックボックス補正障壁を越えて
• Authors: Jane Lange and Arsen Vasilyan
• Abstract要約: 2tildeO(sqrtn/varepsilon)$未知関数$f:pm 1n rightarrow pm 1$の一様ランダムな例を与えられたとき、我々のアルゴリズムは仮説$g:pm 1n rightarrow pm 1$を出力する。 また,2tildeO(sqrt)の実行時間を用いて,未知関数$f$からモノトンへの距離を加算誤差$varepsilon$まで推定するアルゴリズムも提供する。 • 参考スコア（独自算出の注目度）: 6.47243430672461 • License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/ • Abstract: We give the first agnostic, efficient, proper learning algorithm for monotone Boolean functions. Given$2^{\tilde{O}(\sqrt{n}/\varepsilon)}$uniformly random examples of an unknown function$f:\{\pm 1\}^n \rightarrow \{\pm 1\}$, our algorithm outputs a hypothesis$g:\{\pm 1\}^n \rightarrow \{\pm 1\}$that is monotone and$(\mathrm{opt} + \varepsilon)$-close to$f$, where$\mathrm{opt}$is the distance from$f$to the closest monotone function. The running time of the algorithm (and consequently the size and evaluation time of the hypothesis) is also$2^{\tilde{O}(\sqrt{n}/\varepsilon)}$, nearly matching the lower bound of Blais et al (RANDOM '15). We also give an algorithm for estimating up to additive error$\varepsilon$the distance of an unknown function$f$to monotone using a run-time of$2^{\tilde{O}(\sqrt{n}/\varepsilon)}$. Previously, for both of these problems, sample-efficient algorithms were known, but these algorithms were not run-time efficient. Our work thus closes this gap in our knowledge between the run-time and sample complexity. This work builds upon the improper learning algorithm of Bshouty and Tamon (JACM '96) and the proper semiagnostic learning algorithm of Lange, Rubinfeld, and Vasilyan (FOCS '22), which obtains a non-monotone Boolean-valued hypothesis, then corrects'' it to monotone using query-efficient local computation algorithms on graphs. This black-box correction approach can achieve no error better than$2\mathrm{opt} + \varepsilon$information-theoretically; we bypass this barrier by a) augmenting the improper learner with a convex optimization step, and b) learning and correcting a real-valued function before rounding its values to Boolean. Our real-valued correction algorithm solves the poset sorting'' problem of [LRV22] for functions over general posets with non-Boolean labels. • Abstract（参考訳）: 単調ブール関数に対する最初の非依存的,効率的,適切な学習アルゴリズムを提案する。 2^{\tilde{o}(\sqrt{n}/\varepsilon)}$ 未知の関数 $f:\{\pm 1\}^n \rightarrow \{\pm 1\}$ の一様ランダムな例を与えると、アルゴリズムは仮説 $g:\{\pm 1\}^n \rightarrow \{\pm 1\}$ を単調で$(\mathrm{opt} + \varepsilon)$-close to $f$ として出力する。 The running time of the algorithm (and consequently the size and evaluation time of the hypothesis) is also $2^{\tilde{O}(\sqrt{n}/\varepsilon)}$, nearly matching the lower bound of Blais et al (RANDOM '15). We also give an algorithm for estimating up to additive error $\varepsilon$ the distance of an unknown function $f$ to monotone using a run-time of $2^{\tilde{O}(\sqrt{n}/\varepsilon)}$. Previously, for both of these problems, sample-efficient algorithms were known, but these algorithms were not run-time efficient. Our work thus closes this gap in our knowledge between the run-time and sample complexity. This work builds upon the improper learning algorithm of Bshouty and Tamon (JACM '96) and the proper semiagnostic learning algorithm of Lange, Rubinfeld, and Vasilyan (FOCS '22), which obtains a non-monotone Boolean-valued hypothesis, then corrects'' it to monotone using query-efficient local computation algorithms on graphs. このブラックボックス補正アプローチは、2\mathrm{opt} + \varepsilon$information-theoretically 以上の誤差を達成でき、この障壁をバイパスする。 a)不適切な学習者を凸最適化ステップで増強し、 b) 値がブールに丸まる前に実値関数を学習し、修正すること。 実数値補正アルゴリズムは,非ボアラベルを持つ一般ポセット上の関数 [lrv22] の poset sorting''' 問題を解く。 #### 関連論文リスト • An Optimal Algorithm for Strongly Convex Min-min Optimization [79.11017157526815] 既存の最適な一階法には$mathcalO(sqrtmaxkappa_x,kappa_y log 1/epsilon)$nabla_x f(x,y)$と$nabla_y f(x,y)$の両方の計算が必要である。 我々は$mathcalO(sqrtkappa_x log 1/epsilon)$nabla_x f(x,
論文  参考訳（メタデータ） (2022-12-29T19:26:12Z)
• Learning many-body Hamiltonians with Heisenberg-limited scaling [3.460138063155115]
N$-qubit 局所ハミルトニアンの相互作用を学習するためのハイゼンベルク限界を達成するアルゴリズムを提案する。 総進化時間$mathcalO(epsilon-1)$の後に、提案アルゴリズムは高い確率で$N$-qubit Hamiltonianのパラメータを$epsilon$-errorに効率的に推定することができる。 論文 参考訳（メタデータ） (2022-10-06T16:30:51Z) • Learning a Single Neuron with Adversarial Label Noise via Gradient Descent [50.659479930171585] モノトン活性化に対する$mathbfxmapstosigma(mathbfwcdotmathbfx)$の関数について検討する。 学習者の目標は仮説ベクトル$mathbfw$that$F(mathbbw)=C, epsilon$を高い確率で出力することである。 論文 参考訳（メタデータ） (2022-06-17T17:55:43Z) • Sketching Algorithms and Lower Bounds for Ridge Regression [65.0720777731368] リッジ回帰問題に対する1+varepsilon$近似解を計算するスケッチベース反復アルゴリズムを提案する。 また,このアルゴリズムがカーネルリッジ回帰の高速化に有効であることを示す。
論文  参考訳（メタデータ） (2022-04-13T22:18:47Z)
• Logarithmic Regret from Sublinear Hints [76.87432703516942]
自然クエリモデルにより,アルゴリズムが$O(log T)$ regretsを$O(sqrtT)$ hintsで得ることを示す。 また、$o(sqrtT)$ hintsは$Omega(sqrtT)$ regretより保証できないことも示しています。
論文  参考訳（メタデータ） (2021-11-09T16:50:18Z)
• Nearly Linear-Time, Parallelizable Algorithms for Non-Monotone Submodular Maximization [16.346069386394703]
単調ではない部分モジュラ函数の並列化複雑性を、濃度制約$k$に関して研究する。 我々は最適な適応性とクエリの複雑さを持つアルゴリズムによって達成される最適な近似係数を改善する。 我々のアルゴリズムのヒューリスティックバージョンは、適応ラウンドの少ないラウンドと総クエリを使用するように検証されている。
論文  参考訳（メタデータ） (2020-09-03T22:43:55Z)
• On Efficient Low Distortion Ultrametric Embedding [18.227854382422112]
データの基盤となる階層構造を保存するために広く用いられる方法は、データを木や超音波に埋め込む方法を見つけることである。 本稿では,$mathbbRd2(ユニバーサル定数$rho>1$)の点集合を入力として,超測度$Deltaを出力する新しいアルゴリズムを提案する。 我々のアルゴリズムの出力はリンクアルゴリズムの出力に匹敵するが、より高速な実行時間を実現する。
論文  参考訳（メタデータ） (2020-08-15T11:06:45Z)
• Streaming Complexity of SVMs [110.63976030971106]
本稿では,ストリーミングモデルにおけるバイアス正規化SVM問題を解く際の空間複雑性について検討する。 両方の問題に対して、$frac1lambdaepsilon$の次元に対して、$frac1lambdaepsilon$よりも空間的に小さいストリーミングアルゴリズムを得ることができることを示す。
論文  参考訳（メタデータ） (2020-07-07T17:10:00Z)
• Agnostic Q-learning with Function Approximation in Deterministic Systems: Tight Bounds on Approximation Error and Sample Complexity [94.37110094442136]
本稿では,決定論的システムにおける関数近似を用いたQ$学習の問題について検討する。 もし$delta = Oleft(rho/sqrtdim_Eright)$なら、$Oleft(dim_Eright)$を使って最適なポリシーを見つけることができる。 論文 参考訳（メタデータ） (2020-02-17T18:41:49Z) • Learning Sparse Classifiers: Continuous and Mixed Integer Optimization Perspectives [10.291482850329892] 混合整数計画法(MIP)は、(最適に)$ell_0$-正規化回帰問題を解くために用いられる。 数分で5万ドルの機能を処理できる正確なアルゴリズムと、$papprox6$でインスタンスに対処できる近似アルゴリズムの2つのクラスを提案する。 さらに,$ell\$-regularizedsに対する新しい推定誤差境界を提案する。
論文  参考訳（メタデータ） (2020-01-17T18:47:02Z)