論文の概要: Minimax rates of convergence for nonparametric regression under adversarial attacks
- arxiv url: http://arxiv.org/abs/2410.09402v1
- Date: Sat, 12 Oct 2024 07:11:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 14:34:09.544327
- Title: Minimax rates of convergence for nonparametric regression under adversarial attacks
- Title(参考訳): 逆攻撃下での非パラメトリック回帰に対する収束の最小値
- Authors: Jingfu Peng, Yuhong Yang,
- Abstract要約: 非パラメトリック回帰設定における敵攻撃に対する堅牢性の限界を理論的に解析する。
我々の研究は、入力中の敵攻撃時の最小値レートが2項の和と同じであることを明らかにした。
- 参考スコア(独自算出の注目度): 3.244945627960733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research shows the susceptibility of machine learning models to adversarial attacks, wherein minor but maliciously chosen perturbations of the input can significantly degrade model performance. In this paper, we theoretically analyse the limits of robustness against such adversarial attacks in a nonparametric regression setting, by examining the minimax rates of convergence in an adversarial sup-norm. Our work reveals that the minimax rate under adversarial attacks in the input is the same as sum of two terms: one represents the minimax rate in the standard setting without adversarial attacks, and the other reflects the maximum deviation of the true regression function value within the target function class when subjected to the input perturbations. The optimal rates under the adversarial setup can be achieved by a plug-in procedure constructed from a minimax optimal estimator in the corresponding standard setting. Two specific examples are given to illustrate the established minimax results.
- Abstract(参考訳): 近年の研究では、敵攻撃に対する機械学習モデルの感受性が示されており、入力のマイナーだが悪意的に選択された摂動は、モデルの性能を著しく低下させる可能性がある。
本稿では,非パラメトリック回帰条件下での攻撃に対するロバスト性の限界を理論的に解析し,逆超ノルムにおける収束の最小値を調べる。
本研究により, 入力中の敵攻撃時の最小最大値は, 敵攻撃を伴わない標準設定における最小値と同一であり, 入力摂動を受けると, ターゲット関数クラス内の真の回帰関数値の最大偏差を反映していることがわかった。
最適速度は、対応する標準設定におけるミニマックス最適推定器から構築されたプラグイン手順により達成できる。
確立されたミニマックスの結果を説明するための2つの具体例が与えられる。
関連論文リスト
- A Universal Class of Sharpness-Aware Minimization Algorithms [57.29207151446387]
我々は、新しいシャープネス尺度を導入し、新しいシャープネス対応目標関数を導出する。
これらの測度がテキスト的に表現可能であることを証明し、トレーニング損失ヘッセン行列の任意の関数を適切なハイパーおよび行列式で表すことを可能にする。
論文 参考訳(メタデータ) (2024-06-06T01:52:09Z) - Regularization properties of adversarially-trained linear regression [5.7077257711082785]
最先端の機械学習モデルは、非常に小さな入力摂動に対して脆弱である。
敵の訓練は、それに対して効果的なアプローチである。
論文 参考訳(メタデータ) (2023-10-16T20:09:58Z) - Score Attack: A Lower Bound Technique for Optimal Differentially Private
Learning [8.760651633031342]
本稿では,パラメータ推定の差分プライバシに制約されたミニマックスリスクを低く抑える,スコアアタックと呼ばれる新しい手法を提案する。
様々な統計問題に対する差分プライバシーを確保しながら、未知のモデルパラメータを推定する最小限のリスクを対数係数まで最適に下げることができる。
論文 参考訳(メタデータ) (2023-03-13T14:26:27Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Generalized Likelihood Ratio Test for Adversarially Robust Hypothesis
Testing [22.93223530210401]
我々は、このような敵の摂動に対する防御についての洞察を深めるために、古典的な仮説テスト問題を考える。
一般化確率比検定(GLRT)を複合仮説検定問題に適用した防衛法を提案する。
シミュレーションにより、GLRT防御は、最悪の場合の攻撃下でのミニマックスアプローチと競合する一方で、弱い攻撃下でのより正確なトレードオフをもたらすことを示す。
論文 参考訳(メタデータ) (2021-12-04T01:11:54Z) - Minimax Off-Policy Evaluation for Multi-Armed Bandits [58.7013651350436]
有界報酬を用いたマルチアームバンディットモデルにおけるオフポリシー評価の問題点について検討する。
3つの設定でミニマックスレート・オプティマティックな手順を開発。
論文 参考訳(メタデータ) (2021-01-19T18:55:29Z) - Shaping Deep Feature Space towards Gaussian Mixture for Visual
Classification [74.48695037007306]
視覚分類のためのディープニューラルネットワークのためのガウス混合損失関数(GM)を提案する。
分類マージンと可能性正規化により、GM損失は高い分類性能と特徴分布の正確なモデリングの両方を促進する。
提案したモデルは、追加のトレーニング可能なパラメータを使わずに、簡単かつ効率的に実装できる。
論文 参考訳(メタデータ) (2020-11-18T03:32:27Z) - Adversarially Robust Classification based on GLRT [26.44693169694826]
本稿では,一般確率比検定(GLRT)に基づく防衛戦略について述べる。
GLRT法は, 最悪の攻撃条件下でのミニマックス法と競合することを示す。
また、GLRTディフェンスは、最適ミニマックス分類器が不明なより複雑なモデルに自然に一般化する。
論文 参考訳(メタデータ) (2020-11-16T10:16:05Z) - Asymptotic Behavior of Adversarial Training in Binary Classification [41.7567932118769]
敵の訓練は、敵の攻撃に対する防衛の最先端の方法と考えられている。
実際に成功したにもかかわらず、敵の訓練のパフォーマンスを理解する上でのいくつかの問題は未解決のままである。
2進分類における対角訓練の最小化のための正確な理論的予測を導出する。
論文 参考訳(メタデータ) (2020-10-26T01:44:20Z) - An Investigation of Why Overparameterization Exacerbates Spurious
Correlations [98.3066727301239]
この動作を駆動するトレーニングデータの2つの重要な特性を特定します。
モデルの"記憶"に対する帰納的バイアスが,パラメータ化の超過を損なう可能性を示す。
論文 参考訳(メタデータ) (2020-05-09T01:59:13Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。