論文の概要: Probabilistically Robust PAC Learning
- arxiv url: http://arxiv.org/abs/2211.05656v1
- Date: Thu, 10 Nov 2022 15:35:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 14:39:13.348969
- Title: Probabilistically Robust PAC Learning
- Title(参考訳): 確率論的ロバストPAC学習
- Authors: VInod Raman, Unique Subedi, Ambuj Tewari
- Abstract要約: 最悪の場合のロバスト性の下で適切な学習がテキスト化できない仮説クラスでは、確率的ロバスト性テキスト炎の下で適切な学習が可能であり、サンプルの複雑さは最悪の場合のロバスト性設定よりも指数的に小さい。
本研究は, 適切な学習テキスト化が可能なだけでなく, 経験的リスク最小化によって実現可能であることを示す。
- 参考スコア(独自算出の注目度): 17.11922027966447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, Robey et al. propose a notion of probabilistic robustness, which,
at a high-level, requires a classifier to be robust to most but not all
perturbations. They show that for certain hypothesis classes where proper
learning under worst-case robustness is \textit{not} possible, proper learning
under probabilistic robustness \textit{is} possible with sample complexity
exponentially smaller than in the worst-case robustness setting. This motivates
the question of whether proper learning under probabilistic robustness is
always possible. In this paper, we show that this is \textit{not} the case. We
exhibit examples of hypothesis classes $\mathcal{H}$ with finite VC dimension
that are \textit{not} probabilistically robustly PAC learnable with
\textit{any} proper learning rule. However, if we compare the output of the
learner to the best hypothesis for a slightly \textit{stronger} level of
probabilistic robustness, we show that not only is proper learning
\textit{always} possible, but it is possible via empirical risk minimization.
- Abstract(参考訳): 近年、ロビーらは確率的堅牢性の概念を提案しており、高いレベルでは、すべての摂動に対して頑健な分類器を必要とする。
彼らは、最悪のケースのロバスト性の下での適切な学習が \textit{not} 可能であれば、確率的ロバスト性 \textit{is} の下での適切な学習は、サンプルの複雑性が最悪のケースのロバスト性設定よりも指数関数的に小さいことを示している。
これは、確率的堅牢性の下での適切な学習が常に可能であるかどうかという問題を引き起こす。
本稿では、これは \textit{not} の場合であることを示す。
有限なvc次元を持つ仮説クラス $\mathcal{h}$ の例を示す。
しかし、確率的ロバスト性のわずかに \textit{stronger} レベルに対する学習者のアウトプットと最良の仮説を比較すると、適切な学習 \textit{always} が可能であるだけでなく、経験的リスク最小化によって可能であることが分かる。
関連論文リスト
- On the Computability of Robust PAC Learning [9.507869508188266]
本稿では,頑健な計算可能PAC(robust CPAC)学習の問題を紹介する。
このセットアップにおける学習性は,コンポーネントの組み合わせによってもたらされるものではない。
我々はその有限性は必要であるが、堅牢なCPAC学習には不十分であることを証明した。
論文 参考訳(メタデータ) (2024-06-14T16:20:04Z) - Seeing is not Believing: Robust Reinforcement Learning against Spurious
Correlation [57.351098530477124]
国家の異なる部分には、保存されていない共同設立者が引き起こす相関関係が存在しない。
このような役に立たないあるいは有害な相関を学習するモデルは、テストケースの共同創設者がトレーニングケースから逸脱したときに破滅的に失敗する可能性がある。
したがって、単純かつ非構造的な不確実性集合を仮定する既存の頑健なアルゴリズムは、この問題に対処するには不十分である。
論文 参考訳(メタデータ) (2023-07-15T23:53:37Z) - Optimal Learners for Realizable Regression: PAC Learning and Online Learning [52.37726841759983]
本研究では,PAC学習環境とオンライン学習環境の両方において,実現可能な回帰の統計的複雑さを特徴付けることを目的とする。
まず,再現可能な回帰のためのミニマックスインスタンス最適学習器を導入し,実数値予測器のどのクラスが学習可能であるかを質的かつ定量的に特徴付ける新しい次元を提案する。
オンライン学習の文脈では、最小の最適インスタンス最適累積損失を一定要素まで特徴付ける次元を提供し、再現可能な回帰のための最適オンライン学習者を設計する。
論文 参考訳(メタデータ) (2023-07-07T21:39:25Z) - Adversarially Robust PAC Learnability of Real-Valued Functions [19.54399554114989]
脂肪散乱次元のクラスは $ell_p$ 摂動条件で学習可能であることを示す。
そこで本研究では,実関数に対する非依存的な新しいサンプルスキームを提案する。
論文 参考訳(メタデータ) (2022-06-26T21:27:23Z) - Boosting Barely Robust Learners: A New Perspective on Adversarial
Robustness [30.301460075475344]
比較的ロバストな学習アルゴリズムは、少数の部分だけで逆向きにロバストな予測器を学習する。
提案した頑健な学習の概念は,「より大きい」集合に対する摂動を必要とする。
論文 参考訳(メタデータ) (2022-02-11T22:07:36Z) - A Characterization of Semi-Supervised Adversarially-Robust PAC Learnability [57.502573663108535]
本研究では、半教師付きPACモデルにおいて、時間攻撃をテストするために、逆向きに頑健な予測器を学習する問題について検討する。
最悪の分布自由モデルにおいても,半教師付き頑健な学習には大きなメリットがあることが示されている。
論文 参考訳(メタデータ) (2022-02-11T03:01:45Z) - Probabilistically Robust Learning: Balancing Average- and Worst-case
Performance [105.87195436925722]
我々は、正確で不安定な平均ケースと頑健で保守的な最悪のケースのギャップを埋める、堅牢性確率というフレームワークを提案する。
理論的には、このフレームワークはパフォーマンスと最悪のケースと平均ケース学習のサンプル複雑さの間のトレードオフを克服する。
論文 参考訳(メタデータ) (2022-02-02T17:01:38Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Probably Approximately Correct Constrained Learning [135.48447120228658]
我々は、ほぼ正しい学習フレームワーク(PAC)に基づく一般化理論を開発する。
PAC学習可能なクラスも制約のある学習者であるという意味では,学習者の導入は学習問題を難しくするものではないことを示す。
このソリューションの特性を分析し,制約付き学習が公平でロバストな分類における問題にどのように対処できるかを説明する。
論文 参考訳(メタデータ) (2020-06-09T19:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。