論文の概要: Generalized Likelihood Ratio Test for Adversarially Robust Hypothesis
Testing
- arxiv url: http://arxiv.org/abs/2112.02209v1
- Date: Sat, 4 Dec 2021 01:11:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-07 15:04:33.262500
- Title: Generalized Likelihood Ratio Test for Adversarially Robust Hypothesis
Testing
- Title(参考訳): 逆ロバスト仮説検定のための一般比検定法
- Authors: Bhagyashree Puranik, Upamanyu Madhow, Ramtin Pedarsani
- Abstract要約: 我々は、このような敵の摂動に対する防御についての洞察を深めるために、古典的な仮説テスト問題を考える。
一般化確率比検定(GLRT)を複合仮説検定問題に適用した防衛法を提案する。
シミュレーションにより、GLRT防御は、最悪の場合の攻撃下でのミニマックスアプローチと競合する一方で、弱い攻撃下でのより正確なトレードオフをもたらすことを示す。
- 参考スコア(独自算出の注目度): 22.93223530210401
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models are known to be susceptible to adversarial attacks
which can cause misclassification by introducing small but well designed
perturbations. In this paper, we consider a classical hypothesis testing
problem in order to develop fundamental insight into defending against such
adversarial perturbations. We interpret an adversarial perturbation as a
nuisance parameter, and propose a defense based on applying the generalized
likelihood ratio test (GLRT) to the resulting composite hypothesis testing
problem, jointly estimating the class of interest and the adversarial
perturbation. While the GLRT approach is applicable to general multi-class
hypothesis testing, we first evaluate it for binary hypothesis testing in white
Gaussian noise under $\ell_{\infty}$ norm-bounded adversarial perturbations,
for which a known minimax defense optimizing for the worst-case attack provides
a benchmark. We derive the worst-case attack for the GLRT defense, and show
that its asymptotic performance (as the dimension of the data increases)
approaches that of the minimax defense. For non-asymptotic regimes, we show via
simulations that the GLRT defense is competitive with the minimax approach
under the worst-case attack, while yielding a better robustness-accuracy
tradeoff under weaker attacks. We also illustrate the GLRT approach for a
multi-class hypothesis testing problem, for which a minimax strategy is not
known, evaluating its performance under both noise-agnostic and noise-aware
adversarial settings, by providing a method to find optimal noise-aware
attacks, and heuristics to find noise-agnostic attacks that are close to
optimal in the high SNR regime.
- Abstract(参考訳): 機械学習モデルは、小さいがよく設計された摂動を導入することで誤分類を引き起こす、逆境攻撃の影響を受けやすいことが知られている。
本稿では,このような逆摂動に対する防御に関する基礎的洞察を育むために,古典的仮説検証問題を考える。
敵意摂動をニュアサンスパラメータとして解釈し、その結果の複合仮説検定問題に一般化度比テスト(glrt)を適用することに基づく防御を提案し、興味のクラスと敵意摂動を共同で推定する。
GLRT法は一般のマルチクラス仮説テストに適用できるが,まず,最低ケース攻撃を最適化した既知のミニマックスディフェンスがベンチマークを提供する,標準有界逆摂動の下での白色ガウス雑音下での2値仮説テストについて評価する。
我々は,GLRT防衛における最悪の攻撃を導出し,その漸近的性能(データの次元が大きくなるにつれて)がミニマックス防御に近づくことを示す。
非漸近的な体制では、GLRT防衛は最悪の場合の攻撃下でのミニマックスアプローチと競合し、弱い攻撃下ではより堅牢で正確なトレードオフをもたらすことをシミュレーションを通して示している。
また,高snr環境において最適なノイズ認識攻撃を探索する手法と,高レベルsnr環境において最適なノイズ非依存攻撃を探索するヒューリスティクスを提供することにより,その性能を評価することにより,ミニマックス戦略が知られていないマルチクラス仮説テスト問題に対するglrtアプローチを示す。
関連論文リスト
- Low-Cost High-Power Membership Inference Attacks [17.128537906121355]
メンバシップ推論攻撃は、機械学習モデルのトレーニングに特定のデータポイントを使用したかどうかを検出することを目的としている。
近年の強力な攻撃は計算コストが高く、様々な条件下では不整合性があり、実際のプライバシーリスク評価には信頼性が低い。
我々は,計算オーバーヘッドを最小限に抑えながら,人口データとモデルのトレーニングデータとを正確に区別する,新しい,効率的で堅牢なメンバシップ推論攻撃(RMIA)を設計する。
論文 参考訳(メタデータ) (2023-12-06T03:18:49Z) - A Semi-Bayesian Nonparametric Estimator of the Maximum Mean Discrepancy
Measure: Applications in Goodness-of-Fit Testing and Generative Adversarial
Networks [3.623570119514559]
そこで我々は,GoF(Goness-of-fit)テストのための半ベイズ非パラメトリック(セミBNP)手順を提案する。
提案手法は,最大平均誤差(MMD)測定のための新しいベイズ推定器を提案する。
提案手法は, 誤り仮説の誤認率と受理率を低くすることで, 頻繁なMDD法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-05T10:36:21Z) - Generalised Likelihood Ratio Testing Adversaries through the
Differential Privacy Lens [69.10072367807095]
微分プライバシー(DP)は、最適な敵の能力に厳格な上限を提供する。
我々は,NPO(Neyman-Pearson-Pearson-Pearson-Pearson-Pearson-Pearson)対GLRT(Generalized Likelihood Test)対向の仮定を緩和する。
この緩やかな緩和は、プライバシー保証の改善につながる。
論文 参考訳(メタデータ) (2022-10-24T08:24:10Z) - Adversarial Attacks and Defense for Non-Parametric Two-Sample Tests [73.32304304788838]
本稿では,非パラメトリックTSTの障害モードを逆攻撃により系統的に明らかにする。
TST非依存的な攻撃を可能にするために,異なる種類のテスト基準を協調的に最小化するアンサンブル攻撃フレームワークを提案する。
そこで本研究では,TSTの強化のために,逆対を反復的に生成し,深層カーネルを訓練する最大最小最適化を提案する。
論文 参考訳(メタデータ) (2022-02-07T11:18:04Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Adversarially Robust Classification based on GLRT [26.44693169694826]
本稿では,一般確率比検定(GLRT)に基づく防衛戦略について述べる。
GLRT法は, 最悪の攻撃条件下でのミニマックス法と競合することを示す。
また、GLRTディフェンスは、最適ミニマックス分類器が不明なより複雑なモデルに自然に一般化する。
論文 参考訳(メタデータ) (2020-11-16T10:16:05Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。