論文の概要: Provably Adversarially Robust Nearest Prototype Classifiers
- arxiv url: http://arxiv.org/abs/2207.07208v1
- Date: Thu, 14 Jul 2022 21:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 00:13:33.864708
- Title: Provably Adversarially Robust Nearest Prototype Classifiers
- Title(参考訳): 確率的確率的ロバストなプロトタイプ分類器
- Authors: V\'aclav Vor\'a\v{c}ek and Matthias Hein
- Abstract要約: 最寄りのプロトタイプ(NPC)は、選択された距離メートル法に関して、最も近いプロトタイプのラベルを各入力ポイントに割り当てる。
以前の作業では、NPCに対して同じ$ell_p$-distanceを使用する場合、$ell_p$-threatモデルにおける最小対向摂動の低い境界を提供することができた。
本稿では,判定に $ell_p$-distances と認証に $ell_q$-threat モデルを使用する場合の複雑性について,完全な議論を行う。
- 参考スコア(独自算出の注目度): 46.576144913096705
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nearest prototype classifiers (NPCs) assign to each input point the label of
the nearest prototype with respect to a chosen distance metric. A direct
advantage of NPCs is that the decisions are interpretable. Previous work could
provide lower bounds on the minimal adversarial perturbation in the
$\ell_p$-threat model when using the same $\ell_p$-distance for the NPCs. In
this paper we provide a complete discussion on the complexity when using
$\ell_p$-distances for decision and $\ell_q$-threat models for certification
for $p,q \in \{1,2,\infty\}$. In particular we provide scalable algorithms for
the \emph{exact} computation of the minimal adversarial perturbation when using
$\ell_2$-distance and improved lower bounds in other cases. Using efficient
improved lower bounds we train our Provably adversarially robust NPC (PNPC),
for MNIST which have better $\ell_2$-robustness guarantees than neural
networks. Additionally, we show up to our knowledge the first certification
results w.r.t. to the LPIPS perceptual metric which has been argued to be a
more realistic threat model for image classification than $\ell_p$-balls. Our
PNPC has on CIFAR10 higher certified robust accuracy than the empirical robust
accuracy reported in (Laidlaw et al., 2021). The code is available in our
repository.
- Abstract(参考訳): 最近プロトタイプ分類器(NPC)は、選択された距離メートル法に関して、最も近いプロトタイプのラベルを各入力ポイントに割り当てる。
NPCの直接的な利点は、決定が解釈可能であることである。
以前の作業では、NPCに対して同じ$\ell_p$-distanceを使用する場合、$\ell_p$-threatモデルにおける最小対向摂動の低い境界を提供することができた。
本稿では、決定に$\ell_p$-distancesと$p,q \in \{1,2,\infty\}$の認証に$\ell_q$-threatモデルを使用する場合の複雑さについて完全な議論を行う。
特に,$\ell_2$-distance を用いた場合の最小対向摂動の \emph{exact} 計算のためのスケーラブルなアルゴリズムと,他の場合の低境界の改善について述べる。
ニューラルネットワークよりも高い$\ell_2$-robustnessを保証するMNISTに対して、効率よく改善された下位境界を用いて、確率的に堅牢なNPC(PNPC)をトレーニングする。
さらに,LPIPS の知覚測定値に対する最初の認証結果が,$\ell_p$-balls よりも現実的な画像分類の脅威モデルであるとの認識を,私たちの知識に示しています。
pnpc は (laidlaw et al., 2021) で報告された実証的ロバスト精度よりも, cifar10 の認証ロバスト精度が高い。
コードは私たちのリポジトリで利用可能です。
関連論文リスト
- Fast Rates for Bandit PAC Multiclass Classification [73.17969992976501]
我々は,帯域幅フィードバックを用いたマルチクラスPAC学習について検討し,入力を$K$ラベルの1つに分類し,予測されたラベルが正しいか否かに制限する。
我々の主な貢献は、問題の無知な$(varepsilon,delta)$PACバージョンのための新しい学習アルゴリズムを設計することである。
論文 参考訳(メタデータ) (2024-06-18T08:54:04Z) - RAMP: Boosting Adversarial Robustness Against Multiple $l_p$
Perturbations [4.70722607350087]
textbfRAMPは、頑健な微調整と全対角訓練の両方に容易に適応できることを示す。
スクラッチからトレーニングするために、 textbfRAMP は SOTA の結合精度を44.6% で、比較的良好な清潔さを ResNet-18 で AutoAttack に対して 811.2% で達成している。
論文 参考訳(メタデータ) (2024-02-09T23:29:54Z) - Near Sample-Optimal Reduction-based Policy Learning for Average Reward
MDP [58.13930707612128]
この研究は、平均報酬マルコフ決定過程(AMDP)における$varepsilon$-Optimal Policyを得る際のサンプルの複雑さを考察する。
我々は、状態-作用対当たりの$widetilde O(H varepsilon-3 ln frac1delta)$サンプルを証明し、$H := sp(h*)$は任意の最適ポリシーのバイアスのスパンであり、$varepsilon$は精度、$delta$は失敗確率である。
論文 参考訳(メタデータ) (2022-12-01T15:57:58Z) - Best Policy Identification in Linear MDPs [70.57916977441262]
縮退した線形マルコフ+デルタ決定における最適同定問題について, 生成モデルに基づく固定信頼度設定における検討を行った。
複雑な非最適化プログラムの解としての下位境界は、そのようなアルゴリズムを考案する出発点として用いられる。
論文 参考訳(メタデータ) (2022-08-11T04:12:50Z) - On the complexity of All $\varepsilon$-Best Arms Identification [2.1485350418225244]
ガウスの報酬を持つ有限の多腕バンディットにおいて、$varepsilon$-optimal armsを全て識別する問題を考える。
我々は,$varepsilon$-good arms w.h.p の集合を同定し,期待されるサンプルの複雑さの観点から最適性($delta$が 0 になるとき)を享受するトラック・アンド・ストップアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-13T10:54:52Z) - Towards Certifying $\ell_\infty$ Robustness using Neural Networks with
$\ell_\infty$-dist Neurons [27.815886593870076]
我々は本質的に$ell_infty$摂動に抵抗する原理的ニューラルネットワークを開発した。
一般的に使用されているデータセット上で、最先端のパフォーマンスを一貫して達成します。
論文 参考訳(メタデータ) (2021-02-10T10:03:58Z) - Explicit Best Arm Identification in Linear Bandits Using No-Regret
Learners [17.224805430291177]
線形パラメータ化マルチアームバンドにおけるベストアーム識別の問題について検討する。
そこで本研究では,この問題を解決するために,明示的に実装可能かつ証明可能な順序-最適サンプル-複雑度アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-13T05:00:01Z) - Toward Adversarial Robustness via Semi-supervised Robust Training [93.36310070269643]
アドリラルな例は、ディープニューラルネットワーク(DNN)に対する深刻な脅威であることが示されている。
R_stand$ と $R_rob$ の2つの異なるリスクを共同で最小化することで、新しい防御手法であるロバストトレーニング(RT)を提案する。
論文 参考訳(メタデータ) (2020-03-16T02:14:08Z) - Curse of Dimensionality on Randomized Smoothing for Certifiable
Robustness [151.67113334248464]
我々は、他の攻撃モデルに対してスムースな手法を拡張することは困難であることを示す。
我々はCIFARに関する実験結果を示し,その理論を検証した。
論文 参考訳(メタデータ) (2020-02-08T22:02:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。