論文の概要: Hardness of Agnostically Learning Halfspaces from Worst-Case Lattice
Problems
- arxiv url: http://arxiv.org/abs/2207.14030v1
- Date: Thu, 28 Jul 2022 11:44:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-29 12:15:11.356221
- Title: Hardness of Agnostically Learning Halfspaces from Worst-Case Lattice
Problems
- Title(参考訳): 最悪の格子問題から半空間を学習する際の硬さ
- Authors: Stefan Tiegel
- Abstract要約: 特に、この仮定の下では、必ずしもハーフスペースではなく、任意のバイナリ仮説を出力する効率的なアルゴリズムは存在しないことを示す。
これは、最悪の格子問題に基づいて、よく分離されたガウス混合を学習する難しさを示す最近の一連の研究から着想を得たものである。
- 参考スコア(独自算出の注目度): 0.49495085874952904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show hardness of improperly learning halfspaces in the agnostic model
based on worst-case lattice problems, e.g., approximating shortest vectors
within polynomial factors. In particular, we show that under this assumption
there is no efficient algorithm that outputs any binary hypothesis, not
necessarily a halfspace, achieving misclassfication error better than $\frac 1
2 - \epsilon$ even if the optimal misclassification error is as small is as
small as $\delta$. Here, $\epsilon$ can be smaller than the inverse of any
polynomial in the dimension and $\delta$ as small as
$\mathrm{exp}\left(-\Omega\left(\log^{1-c}(d)\right)\right)$, where $0 < c < 1$
is an arbitrary constant and $d$ is the dimension.
Previous hardness results [Daniely16] of this problem were based on
average-case complexity assumptions, specifically, variants of Feige's random
3SAT hypothesis. Our work gives the first hardness for this problem based on a
worst-case complexity assumption. It is inspired by a sequence of recent works
showing hardness of learning well-separated Gaussian mixtures based on
worst-case lattice problems.
- Abstract(参考訳): 例えば多項式因子内の最短ベクトルの近似など,最悪の場合の格子問題に基づく非依存モデルにおいて,不適切に学習する半空間の難しさを示す。
特に、この仮定の下では、最小の誤分類誤差が$\delta$ である場合でも、半空間ではなく任意の二項仮説を出力し、$\frac 1 2 - \epsilon$よりも誤分類エラーを成立させる効率的なアルゴリズムは存在しないことを示す。
ここで、$\epsilon$ は次元内の任意の多項式の逆数よりも小さく、$\delta$ は $\mathrm{exp}\left(-\omega\left(\log^{1-c}(d)\right)\right)$ である。
この問題の以前の硬さ [daniely16] は、平均ケース複雑性の仮定、特に、フェイジのランダムな3sat仮説の変種に基づいている。
私たちの仕事は、最悪の場合の複雑性の仮定に基づいて、この問題の最初の困難さを与えます。
これは、最悪の格子問題に基づいて、よく分離されたガウス混合を学習する難しさを示す最近の一連の研究から着想を得たものである。
関連論文リスト
- Improved Hardness Results for Learning Intersections of Halfspaces [2.1393480341554736]
不適切な設定でハーフ空間の弱学習交差点に対して、強い(そして驚くほど単純な)下界を示す。
我々は、$omega(log log N)$ halfspaces を$N$で学習しても超多項式時間を要することを示すことで、このギャップを著しく狭めている。
具体的には、次元$N$の任意の$k$ハーフスペースに対して、精度$N-Omega(k)$、指数関数的に多くのクエリが必要であることを示す。
論文 参考訳(メタデータ) (2024-02-25T05:26:35Z) - Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Near-Optimal Bounds for Learning Gaussian Halfspaces with Random
Classification Noise [50.64137465792738]
この問題に対する効率的なSQアルゴリズムは、少なくとも$Omega(d1/2/(maxp, epsilon)2)$. のサンプル複雑性を必要とする。
我々の下限は、この1/epsilon$に対する二次的依存は、効率的なアルゴリズムに固有のものであることを示唆している。
論文 参考訳(メタデータ) (2023-07-13T18:59:28Z) - Cryptographic Hardness of Learning Halfspaces with Massart Noise [59.8587499110224]
マスアートノイズの存在下でのPAC学習ハーフスペースの複雑さについて検討した。
我々は,最適0-1誤差が小さい場合でも,リアルタイムのMassartハーフスペース学習者が$Omega(eta)$よりも良い誤差を得られることを示す。
論文 参考訳(メタデータ) (2022-07-28T17:50:53Z) - Threshold Phenomena in Learning Halfspaces with Massart Noise [56.01192577666607]
ガウス境界の下でのマスアートノイズ付きmathbbRd$におけるPAC学習ハーフスペースの問題について検討する。
この結果は,Massartモデルにおける学習ハーフスペースの複雑さを定性的に特徴づけるものである。
論文 参考訳(メタデータ) (2021-08-19T16:16:48Z) - Hardness of Learning Halfspaces with Massart Noise [56.98280399449707]
我々は、マッサート(有界)ノイズの存在下でPAC学習のハーフスペースの複雑さを研究します。
情報理論上最適なエラーとSQアルゴリズムで達成できる最高のエラーとの間に指数関数的なギャップがあることを示した。
論文 参考訳(メタデータ) (2020-12-17T16:43:11Z) - Classification Under Misspecification: Halfspaces, Generalized Linear
Models, and Connections to Evolvability [39.01599245403753]
特に、Massartノイズ下でのハーフスペースの学習問題を$eta$で検討する。
我々は任意のSQアルゴリズムが$mathsfOPT + epsilon$を達成するのに超ポリノミカルな多くのクエリを必要とすることを示した。
また、Massartノイズ下でハーフスペースを学習するためのアルゴリズムを実証的に研究し、いくつかの魅力的なフェアネス特性を示すことを示した。
論文 参考訳(メタデータ) (2020-06-08T17:59:11Z) - Private Learning of Halfspaces: Simplifying the Construction and
Reducing the Sample Complexity [63.29100726064574]
有限格子上の半空間に対して微分プライベート学習器を$mathbbRd$で$G$で、サンプル複雑性を$approx d2.5cdot 2log*|G|$で表す。
学習者のためのビルディングブロックは、線形実現可能性問題を解くために、微分プライベートな新しいアルゴリズムである。
論文 参考訳(メタデータ) (2020-04-16T16:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。