論文の概要: Reducing Adversarially Robust Learning to Non-Robust PAC Learning
- arxiv url: http://arxiv.org/abs/2010.12039v1
- Date: Thu, 22 Oct 2020 20:28:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 07:25:05.340294
- Title: Reducing Adversarially Robust Learning to Non-Robust PAC Learning
- Title(参考訳): 非ロバストPAC学習における逆ロバスト学習の削減
- Authors: Omar Montasser, Steve Hanneke, Nathan Srebro
- Abstract要約: 非ロマンスな学習者を用いて、仮説クラスを頑健に学習できる還元を与える。
$mathcalA$への呼び出しの数は、例ごとに許容される逆の摂動の数に対数的に依存する。
- 参考スコア(独自算出の注目度): 39.51923275855131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of reducing adversarially robust learning to standard
PAC learning, i.e. the complexity of learning adversarially robust predictors
using access to only a black-box non-robust learner. We give a reduction that
can robustly learn any hypothesis class $\mathcal{C}$ using any non-robust
learner $\mathcal{A}$ for $\mathcal{C}$. The number of calls to $\mathcal{A}$
depends logarithmically on the number of allowed adversarial perturbations per
example, and we give a lower bound showing this is unavoidable.
- Abstract(参考訳): 我々は,ブラックボックスの非破壊学習者のみにアクセスすることで,対人的堅牢な学習を標準的なPAC学習に還元する問題,すなわち,対人的堅牢な予測器の複雑さについて検討する。
我々は、任意の非ロバスト学習者$\mathcal{a}$ for $\mathcal{c}$を用いて、任意の仮説クラス$\mathcal{c}$をロバストに学習できる還元を与える。
$\mathcal{a}$ の呼び出し数は、例ごとの許容逆摂動の数に対数的に依存し、これは避けられないことを示す下限を与える。
関連論文リスト
- Do PAC-Learners Learn the Marginal Distribution? [24.80812483480747]
我々はPAC-Learningの変種について検討し、この変種は敵が既知の限界分布の族に制限される。
テレビ学習はPAC学習と等価であることを示す。
論文 参考訳(メタデータ) (2023-02-13T11:42:58Z) - On Optimal Learning Under Targeted Data Poisoning [48.907813854832206]
本研究は,学習者によって達成可能な最小のエラー$epsilon=epsilon(eta)$を,そのような敵の存在下で特徴付けることを目的とする。
注目すべきは,上界が決定論的学習者によって達成できることである。
論文 参考訳(メタデータ) (2022-10-06T06:49:48Z) - Cryptographic Hardness of Learning Halfspaces with Massart Noise [59.8587499110224]
マスアートノイズの存在下でのPAC学習ハーフスペースの複雑さについて検討した。
我々は,最適0-1誤差が小さい場合でも,リアルタイムのMassartハーフスペース学習者が$Omega(eta)$よりも良い誤差を得られることを示す。
論文 参考訳(メタデータ) (2022-07-28T17:50:53Z) - Adversarial Robustness: What fools you makes you stronger [1.14219428942199]
本研究では,PAC-ラーニングモデルと等価クエリ-ラーニングモデルのバージョンとの間で,サンプルの複雑さを指数関数的に分離することを証明する。
この分離は、敵対的堅牢性に興味深い意味を持つことを示す。
攻撃者の存在下では、確実に堅牢なモデルを計算する適応防御を設計するビジョンを探求する。
論文 参考訳(メタデータ) (2021-02-10T15:00:24Z) - The Complexity of Adversarially Robust Proper Learning of Halfspaces
with Agnostic Noise [67.27523616312428]
分布非依存型PACモデルにおけるハーフスペースの逆強正則学習の計算複雑性について検討する。
この問題に対して,計算効率のよい学習アルゴリズムとほぼ一致する計算硬度結果を与える。
論文 参考訳(メタデータ) (2020-07-30T04:18:51Z) - Algorithms and SQ Lower Bounds for PAC Learning One-Hidden-Layer ReLU
Networks [48.32532049640782]
ガウス境界の下で, 1層ReLUネットワークを$k$の隠れ単位で学習する問題をmathbbRd$で研究する。
正の係数の場合、この学習問題の初回アルゴリズムを$k$から$tildeOOmega(sqrtlog d)$まで与える。
論文 参考訳(メタデータ) (2020-06-22T17:53:54Z) - Taking a hint: How to leverage loss predictors in contextual bandits? [63.546913998407405]
我々は,損失予測の助けを借りて,文脈的包帯における学習を研究する。
最適な後悔は$mathcalO(minsqrtT, sqrtmathcalETfrac13)$である。
論文 参考訳(メタデータ) (2020-03-04T07:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。