論文の概要: On the Perils of Cascading Robust Classifiers
- arxiv url: http://arxiv.org/abs/2206.00278v1
- Date: Wed, 1 Jun 2022 07:15:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 12:47:45.270324
- Title: On the Perils of Cascading Robust Classifiers
- Title(参考訳): カスケードロバスト分類器のペリルについて
- Authors: Ravi Mangal, Zifan Wang, Chi Zhang, Klas Leino, Corina Pasareanu and
Matt Fredrikson
- Abstract要約: 確実に堅牢なニューラルネットワークを組み込むことは、ニューラルネットワークの認識された堅牢な精度を改善するための有望なアプローチであることが示されている。
重み付け投票に基づく代替的なブラックボックスのアンサンブル機構を提案し、ロバストネス認証の健全さを証明した。
- 参考スコア(独自算出の注目度): 32.76147960792804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensembling certifiably robust neural networks has been shown to be a
promising approach for improving the \emph{certified robust accuracy} of neural
models. Black-box ensembles that assume only query-access to the constituent
models (and their robustness certifiers) during prediction are particularly
attractive due to their modular structure. Cascading ensembles are a popular
instance of black-box ensembles that appear to improve certified robust
accuracies in practice. However, we find that the robustness certifier used by
a cascading ensemble is unsound. That is, when a cascading ensemble is
certified as locally robust at an input $x$, there can, in fact, be inputs $x'$
in the $\epsilon$-ball centered at $x$, such that the cascade's prediction at
$x'$ is different from $x$. We present an alternate black-box ensembling
mechanism based on weighted voting which we prove to be sound for robustness
certification. Via a thought experiment, we demonstrate that if the constituent
classifiers are suitably diverse, voting ensembles can improve certified
performance. Our code is available at
\url{https://github.com/TristaChi/ensembleKW}.
- Abstract(参考訳): 証明可能なロバストなニューラルネットワークは、ニューラルネットワークモデルの\emph{certified robust accuracy}を改善するための有望なアプローチであることが示されている。
予測中の構成モデル(とその堅牢性証明器)へのクエリアクセスのみを前提としたブラックボックスアンサンブルは、モジュール構造のために特に魅力的である。
カスケードアンサンブルはブラックボックスアンサンブルの一般的な例であり、実際に認定された堅牢なアキュラシーを改善しているように見える。
しかし,カスケードアンサンブルが使用するロバスト性証明器は不正確であることがわかった。
つまり、cascadingアンサンブルが入力$x$で局所ロバストであると認定された場合、実際には$x$を中心とする$\epsilon$-ballに$x'$を入力できるので、$x'$でのカスケードの予測は$x$とは異なる。
重み付け投票に基づく代替的なブラックボックスのアンサンブル機構を提案し、ロバストネス認証の健全さを証明した。
思考実験により,構成分類器が適度に多様であれば,投票アンサンブルによって認証性能が向上することを示す。
私たちのコードは \url{https://github.com/TristaChi/ensembleKW} で利用可能です。
関連論文リスト
- Certified Robustness against Sparse Adversarial Perturbations via Data Localization [39.883465335244594]
本論では,MNISTデータセットとFashion-MNISTデータセットのスパース攻撃に対する信頼性の高いロバスト性において,この問題の幾何学を自然に組み込んだ単純な分類器であるBox-NNについて述べる。
論文 参考訳(メタデータ) (2024-05-23T05:02:00Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Getting a-Round Guarantees: Floating-Point Attacks on Certified Robustness [19.380453459873298]
敵の例は、わずかな入力摂動によって機械学習分類器の決定を変更できるため、セキュリティリスクを引き起こす。
これらの保証は、ラウンドエラーを引き起こす浮動小数点表現の制限により無効化可能であることを示す。
この攻撃は、正確な認証保証を持つ線形分類器や、保守的な認証を持つニューラルネットワークに対して実行可能であることを示す。
論文 参考訳(メタデータ) (2022-05-20T13:07:36Z) - Smooth-Reduce: Leveraging Patches for Improved Certified Robustness [100.28947222215463]
本研究では,Smooth-Reduce の学習自由な修正スムース化手法を提案する。
提案アルゴリズムは,入力画像から抽出した重なり合うパッチを分類し,予測ロジットを集約して,入力周辺の半径が大きいことを証明する。
我々は,このような証明書の理論的保証を提供し,他のランダムな平滑化手法に対する顕著な改善を実証的に示す。
論文 参考訳(メタデータ) (2022-05-12T15:26:20Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - Almost Tight L0-norm Certified Robustness of Top-k Predictions against
Adversarial Perturbations [78.23408201652984]
トップk予測は、マシンラーニング・アズ・ア・サービス、レコメンダ・システム、Web検索など、多くの現実世界のアプリケーションで使用されている。
我々の研究はランダム化平滑化に基づいており、入力をランダム化することで、証明可能なロバストな分類器を構築する。
例えば、攻撃者がテスト画像の5ピクセルを任意に摂動できる場合に、ImageNet上で69.2%の認定トップ3精度を達成する分類器を構築することができる。
論文 参考訳(メタデータ) (2020-11-15T21:34:44Z) - Provable Robust Classification via Learned Smoothed Densities [1.599072005190786]
雑音の測定値から、$widehatx(Y)$, $textitBayes estimator$$ $X$という、ロバストな分類の問題を定式化する。
学習されたスムーズなエネルギー関数と線形分類器により、経験的防御と競合する堅牢な精度の証明可能な$ellを達成できることが示される。
論文 参考訳(メタデータ) (2020-05-09T19:52:32Z) - Black-Box Certification with Randomized Smoothing: A Functional
Optimization Based Framework [60.981406394238434]
本稿では,非ガウス雑音とより一般的な攻撃に対する対向的認証の一般的な枠組みを提案する。
提案手法は,従来の手法よりも優れた認証結果を得るとともに,ランダム化スムーズな認証の新たな視点を提供する。
論文 参考訳(メタデータ) (2020-02-21T07:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。