論文の概要: On Proper Learnability between Average- and Worst-case Robustness
- arxiv url: http://arxiv.org/abs/2211.05656v5
- Date: Thu, 25 May 2023 13:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 23:36:57.574220
- Title: On Proper Learnability between Average- and Worst-case Robustness
- Title(参考訳): 平均と最悪のロバストさの学習性について
- Authors: Vinod Raman, Unique Subedi, Ambuj Tewari
- Abstract要約: Montasserらによれば、有限VC次元は正反対に堅牢なPAC学習には不十分である。
我々は、VCクラスが適切なPAC学習が可能な、ロバストな損失緩和のファミリーを与える。
最悪ケースのロバストな損失を、既存かつ自然に緩和するためには、有限VC次元は適切な学習には不十分であることを示す。
- 参考スコア(独自算出の注目度): 17.11922027966447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, Montasser et al. [2019] showed that finite VC dimension is not
sufficient for proper adversarially robust PAC learning. In light of this
hardness, there is a growing effort to study what type of relaxations to the
adversarially robust PAC learning setup can enable proper learnability. In this
work, we initiate the study of proper learning under relaxations of the
worst-case robust loss. We give a family of robust loss relaxations under which
VC classes are properly PAC learnable with sample complexity close to what one
would require in the standard PAC learning setup. On the other hand, we show
that for an existing and natural relaxation of the worst-case robust loss,
finite VC dimension is not sufficient for proper learning. Lastly, we give new
generalization guarantees for the adversarially robust empirical risk
minimizer.
- Abstract(参考訳): 最近、Montasserら。
[2019] は, 有限VC次元が正反対に堅牢なPAC学習に十分でないことを示した。
この難しさを鑑みて、対向的に堅牢なPAC学習設定に対する緩和が適切な学習可能性を実現するかを研究する努力が増えている。
本研究では,最悪のロバスト損失の緩和下での適切な学習の研究を開始する。
我々は、VCクラスが適切なPAC学習が可能なロバストな損失緩和のファミリを与え、標準PAC学習設定で必要とされるものに近いサンプル複雑性を持つ。
一方、最悪ケースのロバストな損失を既存かつ自然に緩和するためには、有限VC次元は適切な学習には不十分であることを示す。
最後に、敵対的に堅牢な経験的リスク最小化器に対する新しい一般化保証を与える。
関連論文リスト
- On the Computability of Robust PAC Learning [9.507869508188266]
本稿では,頑健な計算可能PAC(robust CPAC)学習の問題を紹介する。
このセットアップにおける学習性は,コンポーネントの組み合わせによってもたらされるものではない。
我々はその有限性は必要であるが、堅牢なCPAC学習には不十分であることを証明した。
論文 参考訳(メタデータ) (2024-06-14T16:20:04Z) - Seeing is not Believing: Robust Reinforcement Learning against Spurious
Correlation [57.351098530477124]
国家の異なる部分には、保存されていない共同設立者が引き起こす相関関係が存在しない。
このような役に立たないあるいは有害な相関を学習するモデルは、テストケースの共同創設者がトレーニングケースから逸脱したときに破滅的に失敗する可能性がある。
したがって、単純かつ非構造的な不確実性集合を仮定する既存の頑健なアルゴリズムは、この問題に対処するには不十分である。
論文 参考訳(メタデータ) (2023-07-15T23:53:37Z) - Optimal Learners for Realizable Regression: PAC Learning and Online Learning [52.37726841759983]
本研究では,PAC学習環境とオンライン学習環境の両方において,実現可能な回帰の統計的複雑さを特徴付けることを目的とする。
まず,再現可能な回帰のためのミニマックスインスタンス最適学習器を導入し,実数値予測器のどのクラスが学習可能であるかを質的かつ定量的に特徴付ける新しい次元を提案する。
オンライン学習の文脈では、最小の最適インスタンス最適累積損失を一定要素まで特徴付ける次元を提供し、再現可能な回帰のための最適オンライン学習者を設計する。
論文 参考訳(メタデータ) (2023-07-07T21:39:25Z) - Adversarially Robust PAC Learnability of Real-Valued Functions [19.54399554114989]
脂肪散乱次元のクラスは $ell_p$ 摂動条件で学習可能であることを示す。
そこで本研究では,実関数に対する非依存的な新しいサンプルスキームを提案する。
論文 参考訳(メタデータ) (2022-06-26T21:27:23Z) - Boosting Barely Robust Learners: A New Perspective on Adversarial
Robustness [30.301460075475344]
比較的ロバストな学習アルゴリズムは、少数の部分だけで逆向きにロバストな予測器を学習する。
提案した頑健な学習の概念は,「より大きい」集合に対する摂動を必要とする。
論文 参考訳(メタデータ) (2022-02-11T22:07:36Z) - A Characterization of Semi-Supervised Adversarially-Robust PAC Learnability [57.502573663108535]
本研究では、半教師付きPACモデルにおいて、時間攻撃をテストするために、逆向きに頑健な予測器を学習する問題について検討する。
最悪の分布自由モデルにおいても,半教師付き頑健な学習には大きなメリットがあることが示されている。
論文 参考訳(メタデータ) (2022-02-11T03:01:45Z) - Probabilistically Robust Learning: Balancing Average- and Worst-case
Performance [105.87195436925722]
我々は、正確で不安定な平均ケースと頑健で保守的な最悪のケースのギャップを埋める、堅牢性確率というフレームワークを提案する。
理論的には、このフレームワークはパフォーマンスと最悪のケースと平均ケース学習のサンプル複雑さの間のトレードオフを克服する。
論文 参考訳(メタデータ) (2022-02-02T17:01:38Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Probably Approximately Correct Constrained Learning [135.48447120228658]
我々は、ほぼ正しい学習フレームワーク(PAC)に基づく一般化理論を開発する。
PAC学習可能なクラスも制約のある学習者であるという意味では,学習者の導入は学習問題を難しくするものではないことを示す。
このソリューションの特性を分析し,制約付き学習が公平でロバストな分類における問題にどのように対処できるかを説明する。
論文 参考訳(メタデータ) (2020-06-09T19:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。