論文の概要: On Achieving Optimal Adversarial Test Error
- arxiv url: http://arxiv.org/abs/2306.07544v1
- Date: Tue, 13 Jun 2023 05:25:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 15:00:53.109823
- Title: On Achieving Optimal Adversarial Test Error
- Title(参考訳): 最適逆テストエラーの達成について
- Authors: Justin D. Li, Matus Telgarsky
- Abstract要約: まず、最適対向予測器の様々な基本特性を解明する。
本研究では,一般的なデータ分布と摂動集合に対して,早期停止と最適対向性のある浅層ネットワーク上での対向トレーニングにより,最適対向テスト誤差を達成できることを証明した。
- 参考スコア(独自算出の注目度): 20.968148944255688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We first elucidate various fundamental properties of optimal adversarial
predictors: the structure of optimal adversarial convex predictors in terms of
optimal adversarial zero-one predictors, bounds relating the adversarial convex
loss to the adversarial zero-one loss, and the fact that continuous predictors
can get arbitrarily close to the optimal adversarial error for both convex and
zero-one losses. Applying these results along with new Rademacher complexity
bounds for adversarial training near initialization, we prove that for general
data distributions and perturbation sets, adversarial training on shallow
networks with early stopping and an idealized optimal adversary is able to
achieve optimal adversarial test error. By contrast, prior theoretical work
either considered specialized data distributions or only provided training
error guarantees.
- Abstract(参考訳): まず, 最適対向凸予測器の最適対向零点予測器の構造, 逆向凸損失と逆向零点損失の関係, 連続予測器が最適対向誤差に任意に近づくこと, および, 最適対向凸予測器の最適対向零点予測器の構造を解明する。
これらの結果と, 初期化近傍の対向学習における新たなRademacher複雑性境界を適用し, 一般データ分布と摂動集合に対して, 早期停止を伴う浅層ネットワーク上での対向訓練, 最適対向テスト誤差を最適に達成できることを証明した。
対照的に、事前の理論的研究は、専門的なデータ分散を考慮するか、トレーニングエラー保証のみを提供する。
関連論文リスト
- Pitfall of Optimism: Distributional Reinforcement Learning by
Randomizing Risk Criterion [9.35556128467037]
本稿では,リスクの一方的な傾向を避けるために,リスク基準のランダム化によって行動を選択する新しい分散強化学習アルゴリズムを提案する。
理論的結果は,提案手法がバイアス探索に該当せず,最適回帰に収束することが保証されていることを裏付けるものである。
論文 参考訳(メタデータ) (2023-10-25T10:53:04Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - Expressive Losses for Verified Robustness via Convex Combinations [67.54357965665676]
本研究では, 過近似係数と異なる表現的損失に対する性能分布の関係について検討した。
表現性が不可欠である一方で、最悪の場合の損失のより良い近似は、必ずしも優れた堅牢性-正確性トレードオフに結びついていないことを示す。
論文 参考訳(メタデータ) (2023-05-23T12:20:29Z) - Characterizing the Optimal 0-1 Loss for Multi-class Classification with
a Test-time Attacker [57.49330031751386]
我々は,任意の離散データセット上の複数クラス分類器に対するテスト時間攻撃の存在下での損失に対する情報理論的下位境界を求める。
本稿では,データと敵対的制約から競合ハイパーグラフを構築する際に発生する最適0-1損失を求めるための一般的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-21T15:17:13Z) - Generalised Likelihood Ratio Testing Adversaries through the
Differential Privacy Lens [69.10072367807095]
微分プライバシー(DP)は、最適な敵の能力に厳格な上限を提供する。
我々は,NPO(Neyman-Pearson-Pearson-Pearson-Pearson-Pearson-Pearson)対GLRT(Generalized Likelihood Test)対向の仮定を緩和する。
この緩やかな緩和は、プライバシー保証の改善につながる。
論文 参考訳(メタデータ) (2022-10-24T08:24:10Z) - Federated Learning with Heterogeneous Data: A Superquantile Optimization
Approach [0.0]
我々は、不均一なデータを持つ個々のクライアントに対して、優れたパフォーマンスを確実に提供するように設計された、フェデレートされた学習フレームワークを提案する。
提案手法は,誤差の尾の統計を捉える水槽型学習訓練に基づく。
論文 参考訳(メタデータ) (2021-12-17T11:00:23Z) - Learning to Predict Trustworthiness with Steep Slope Loss [69.40817968905495]
本研究では,現実の大規模データセットにおける信頼性の予測問題について検討する。
我々は、先行技術損失関数で訓練された信頼性予測器が、正しい予測と誤った予測の両方を信頼に値するものとみなす傾向があることを観察する。
そこで我々は,2つのスライド状の曲線による不正確な予測から,特徴w.r.t.正しい予測を分離する,新たな急勾配損失を提案する。
論文 参考訳(メタデータ) (2021-09-30T19:19:09Z) - Sequential Domain Adaptation by Synthesizing Distributionally Robust
Experts [14.656957226255628]
教師付きドメイン適応は、目標分布に近いソース分布からラベル付きトレーニングサンプルを追加することにより、予測精度を向上させることを目的としている。
我々は、提案した頑健な専門家の家系のBernsteinオンライン集約アルゴリズムを用いて、ターゲットサンプルの逐次的ストリームの予測を生成する。
論文 参考訳(メタデータ) (2021-06-01T08:51:55Z) - Differentially Private Adversarial Robustness Through Randomized
Perturbations [16.187650541902283]
ディープニューラルネットワークは、正しく分類された例に対する小さな摂動に確実に敏感であり、誤った予測につながる。
本稿では,ランダムな摂動による対向ロバスト性について検討する。
提案手法は,ガムベル雑音に基づく新しい密度ベース機構を用いる。
論文 参考訳(メタデータ) (2020-09-27T00:58:32Z) - Revisiting One-vs-All Classifiers for Predictive Uncertainty and
Out-of-Distribution Detection in Neural Networks [22.34227625637843]
識別型分類器における確率のパラメトリゼーションが不確実性推定に与える影響について検討する。
画像分類タスクのキャリブレーションを改善するために, 1-vs-all の定式化が可能であることを示す。
論文 参考訳(メタデータ) (2020-07-10T01:55:02Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。