論文の概要: Adversarially Robust Learning: A Generic Minimax Optimal Learner and
Characterization
- arxiv url: http://arxiv.org/abs/2209.07369v1
- Date: Thu, 15 Sep 2022 15:32:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 12:17:57.771486
- Title: Adversarially Robust Learning: A Generic Minimax Optimal Learner and
Characterization
- Title(参考訳): 敵対的ロバスト学習 : 汎用的ミニマックス最適学習者とキャラクタリゼーション
- Authors: Omar Montasser, Steve Hanneke, Nathan Srebro
- Abstract要約: 本研究では,テスト時間における逆例に頑健な予測器の学習問題に対して,最小限の最適学習器を提案する。
特に、強い否定的な意味で、モンタッサー、ハネケ、スレブロによって提案された頑健な学習者の亜最適性を示す。
- 参考スコア(独自算出の注目度): 39.51923275855131
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a minimax optimal learner for the problem of learning predictors
robust to adversarial examples at test-time. Interestingly, we find that this
requires new algorithmic ideas and approaches to adversarially robust learning.
In particular, we show, in a strong negative sense, the suboptimality of the
robust learner proposed by Montasser, Hanneke, and Srebro (2019) and a broader
family of learners we identify as local learners. Our results are enabled by
adopting a global perspective, specifically, through a key technical
contribution: the global one-inclusion graph, which may be of independent
interest, that generalizes the classical one-inclusion graph due to Haussler,
Littlestone, and Warmuth (1994). Finally, as a byproduct, we identify a
dimension characterizing qualitatively and quantitatively what classes of
predictors $\mathcal{H}$ are robustly learnable. This resolves an open problem
due to Montasser et al. (2019), and closes a (potentially) infinite gap between
the established upper and lower bounds on the sample complexity of
adversarially robust learning.
- Abstract(参考訳): そこで本研究では,実例にロバストな学習予測問題に対するminimax最適学習器を提案する。
興味深いことに、これは新しいアルゴリズムのアイデアと、逆向きに堅牢な学習のためのアプローチを必要とする。
特に,強い否定的な意味では,montasser,hanneke,srebro (2019) によって提唱された頑健な学習者の下位最適性と,我々は地域学習者として認識する幅広い学習者の家族を示す。
本研究は,haussler,littlestone,warmuth (1994) による古典的一意グラフを一般化するグローバル・ワン・インクルージョングラフ (global one-inclusion graph) の重要な技術的貢献を通して,グローバル・パースペクティブ(global perspective)を採用することで実現されている。
最後に、副産物として、定性的かつ定量的にどの予測子のクラスがロバストに学習可能であるかを特徴付ける次元を同定する。
これはMontasser et al. (2019)によるオープンな問題を解決し、(潜在的に)確立された上界と下界の間の無限のギャップを、対向的に堅牢な学習のサンプル複雑性で閉じる。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Achieving More with Less: A Tensor-Optimization-Powered Ensemble Method [53.170053108447455]
アンサンブル学習(英: Ensemble learning)は、弱い学習者を利用して強力な学習者を生み出す方法である。
我々は、マージンの概念を活かした滑らかで凸な目的関数を設計し、強力な学習者がより差別的になるようにした。
そして、我々のアルゴリズムを、多数のデータセットの10倍の大きさのランダムな森林や他の古典的な手法と比較する。
論文 参考訳(メタデータ) (2024-08-06T03:42:38Z) - Learnability Gaps of Strategic Classification [68.726857356532]
我々は,戦略的分類と標準学習の間にある学習可能性のギャップという,根本的な問題に対処することに注力する。
ほぼ厳密なサンプルの複雑さと後悔の限界を提供し、以前の結果よりも大幅に改善します。
この設定における我々のアルゴリズムは、独立して興味を持ち、マルチラベル学習のような他の問題にも適用できる。
論文 参考訳(メタデータ) (2024-02-29T16:09:19Z) - Regularization and Optimal Multiclass Learning [10.168670899305232]
この研究は、経験的リスク最小化が失敗する最も単純な設定における正規化の役割を特徴づけることである。
ワンインクルージョングラフ(OIG)を用いて、試行錯誤アルゴリズムの原理に相応しい最適な学習アルゴリズムを示す。
論文 参考訳(メタデータ) (2023-09-24T16:49:55Z) - Agnostic Multi-Robust Learning Using ERM [19.313739782029185]
頑健な学習における根本的な問題は非対称性である: 学習者は指数関数的に多くの摂動の全てを正しく分類する必要がある。
これとは対照的に、攻撃者は1つの摂動を成功させる必要がある。
本稿では,新しいマルチグループ設定を導入し,新しいマルチロバスト学習問題を提案する。
論文 参考訳(メタデータ) (2023-03-15T21:30:14Z) - A Moment-Matching Approach to Testable Learning and a New
Characterization of Rademacher Complexity [15.746613321517282]
我々は、モーメントマッチングやメートル法非依存のツールを用いて、テスト可能な学習アルゴリズムを開発するための強力な新しいアプローチを提案する。
意外なことに、テスト可能な学習における情報理論の複雑さは、概念クラスのRademacher複雑さによって強く特徴づけられている。
論文 参考訳(メタデータ) (2022-11-23T21:29:51Z) - Improved Robust Algorithms for Learning with Discriminative Feature
Feedback [21.58493386054356]
識別的特徴フィードバック(英: Discriminative Feature Feedback)は、人間の教師によって提供される特徴説明に基づく対話型学習のためのプロトコルである。
我々は、識別的特徴フィードバックモデルのための、新しい堅牢な対話型学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-09-08T12:11:12Z) - Learning Rates for Nonconvex Pairwise Learning [7.33244617309908]
人口規模に基づいて多くの重要な学習タスクを改善するため、ペアワイズ学習が注目されている。
モチベーションされた非賢明な学習は、学習率を改善する。
論文 参考訳(メタデータ) (2021-11-09T16:12:20Z) - Instance-Dependent Complexity of Contextual Bandits and Reinforcement
Learning: A Disagreement-Based Perspective [104.67295710363679]
古典的なマルチアームバンディット問題において、インスタンス依存アルゴリズムは、ベストとセカンドベストのアーム間のギャップで「容易」な問題のパフォーマンスを向上させる。
我々は、インスタンス依存の後悔境界を得るのに十分かつ必要である複雑性尺度のファミリーを導入する。
次に、可能な限りギャップに適応する新しいオラクル効率アルゴリズムを導入し、最悪の場合にはミニマックスレートを得る。
論文 参考訳(メタデータ) (2020-10-07T01:33:06Z) - Provably Efficient Exploration for Reinforcement Learning Using
Unsupervised Learning [96.78504087416654]
強化学習(RL)問題における効率的な探索に教師なし学習を用い,本パラダイムが有効であるかどうかを考察する。
本稿では,教師なし学習アルゴリズムと非線形表RLアルゴリズムという,2つのコンポーネント上に構築された汎用的なアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-15T19:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。