論文の概要: Adversarial Attacks and Defense for Non-Parametric Two-Sample Tests
- arxiv url: http://arxiv.org/abs/2202.03077v1
- Date: Mon, 7 Feb 2022 11:18:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 00:11:33.574067
- Title: Adversarial Attacks and Defense for Non-Parametric Two-Sample Tests
- Title(参考訳): 非パラメトリック2サンプル試験における逆攻撃と防御
- Authors: Xilie Xu, Jingfeng Zhang, Feng Liu, Masashi Sugiyama, Mohan
Kankanhalli
- Abstract要約: 本稿では,非パラメトリックTSTの障害モードを逆攻撃により系統的に明らかにする。
TST非依存的な攻撃を可能にするために,異なる種類のテスト基準を協調的に最小化するアンサンブル攻撃フレームワークを提案する。
そこで本研究では,TSTの強化のために,逆対を反復的に生成し,深層カーネルを訓練する最大最小最適化を提案する。
- 参考スコア(独自算出の注目度): 73.32304304788838
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Non-parametric two-sample tests (TSTs) that judge whether two sets of samples
are drawn from the same distribution, have been widely used in the analysis of
critical data. People tend to employ TSTs as trusted basic tools and rarely
have any doubt about their reliability. This paper systematically uncovers the
failure mode of non-parametric TSTs through adversarial attacks and then
proposes corresponding defense strategies. First, we theoretically show that an
adversary can upper-bound the distributional shift which guarantees the
attack's invisibility. Furthermore, we theoretically find that the adversary
can also degrade the lower bound of a TST's test power, which enables us to
iteratively minimize the test criterion in order to search for adversarial
pairs. To enable TST-agnostic attacks, we propose an ensemble attack (EA)
framework that jointly minimizes the different types of test criteria. Second,
to robustify TSTs, we propose a max-min optimization that iteratively generates
adversarial pairs to train the deep kernels. Extensive experiments on both
simulated and real-world datasets validate the adversarial vulnerabilities of
non-parametric TSTs and the effectiveness of our proposed defense.
- Abstract(参考訳): 2組のサンプルが同じ分布から引き出されるかどうかを判定する非パラメトリック2サンプル試験(TST)は、臨界データの解析に広く用いられている。
人々はTSTを信頼できる基本的なツールとして使う傾向があり、その信頼性を疑うことは滅多にありません。
本稿では,非パラメトリックTSTの障害モードを敵攻撃により体系的に解明し,対応する防衛戦略を提案する。
まず, 攻撃の可視性を保証する分布シフトを, 敵が上向きに展開できることを理論的に示す。
さらに,理論上は,tstテストパワーの下限を低下させることも可能であり,逆ペアを探索するために反復的にテスト基準を最小化することができる。
TST非依存的な攻撃を可能にするために,異なる種類のテスト基準を共同で最小化するアンサンブル攻撃(EA)フレームワークを提案する。
第二に,tstsの強固化のために,ディープカーネルを訓練するために逆ペアを反復的に生成するmax-min最適化を提案する。
非パラメトリックTSTの敵対的脆弱性と,提案した防御の有効性をシミュレーションおよび実世界のデータセットで検証した。
関連論文リスト
- ProTIP: Probabilistic Robustness Verification on Text-to-Image Diffusion
Models against Stochastic Perturbation [19.01129064153707]
テキスト・ツー・イメージ(T2I)拡散モデル(DM)は、単純なテキスト記述に基づいて高品質な画像を生成する際、印象的な能力を示した。
多くのディープラーニング(DL)モデルに共通するように、DMは堅牢性に欠ける。
本稿では,T2I DMのロバスト性に関する確率論的概念を導入し,統計的保証で評価するための効率的なフレームワークであるProTIPを確立する。
論文 参考訳(メタデータ) (2024-02-23T16:48:56Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Generalized Likelihood Ratio Test for Adversarially Robust Hypothesis
Testing [22.93223530210401]
我々は、このような敵の摂動に対する防御についての洞察を深めるために、古典的な仮説テスト問題を考える。
一般化確率比検定(GLRT)を複合仮説検定問題に適用した防衛法を提案する。
シミュレーションにより、GLRT防御は、最悪の場合の攻撃下でのミニマックスアプローチと競合する一方で、弱い攻撃下でのより正確なトレードオフをもたらすことを示す。
論文 参考訳(メタデータ) (2021-12-04T01:11:54Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z) - Towards Certifiable Adversarial Sample Detection [9.29621938988162]
畳み込みニューラルネットワーク(CNN)は、ますます多くの分類システムにデプロイされる。
敵のサンプルは 悪質に作って 騙すことができる 真の脅威になりつつある
我々は,認証逆検出方式であるCTT(Certible Taboo Trap)の形での新しいアプローチを提案する。
CTTは、クリーンなテストデータに対する偽陽性率が少なく、デプロイ時の計算オーバーヘッドが最小であり、複雑なセキュリティポリシーをサポートすることができることを示す。
論文 参考訳(メタデータ) (2020-02-20T14:10:00Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。