論文の概要: Randomization for adversarial robustness: the Good, the Bad and the Ugly
- arxiv url: http://arxiv.org/abs/2302.07221v1
- Date: Tue, 14 Feb 2023 17:51:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 14:40:16.592445
- Title: Randomization for adversarial robustness: the Good, the Bad and the Ugly
- Title(参考訳): 敵対的ロバスト性に対するランダム化 : 善、悪、悪
- Authors: Lucas Gnecco-Heredia, Yann Chevaleyre, Benjamin Negrevergne, Laurent
Meunier
- Abstract要約: 人間には受け入れられない摂動は、十分に訓練されたディープニューラルネットワークを誤分類することが容易である。
敵対的攻撃から守るため、ランダム化分類器は決定論的攻撃の頑健な代替として提案されている。
- 参考スコア(独自算出の注目度): 9.353842841446395
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks are known to be vulnerable to adversarial attacks: A
small perturbation that is imperceptible to a human can easily make a
well-trained deep neural network misclassify. To defend against adversarial
attacks, randomized classifiers have been proposed as a robust alternative to
deterministic ones. In this work we show that in the binary classification
setting, for any randomized classifier, there is always a deterministic
classifier with better adversarial risk. In other words, randomization is not
necessary for robustness. In many common randomization schemes, the
deterministic classifiers with better risk are explicitly described: For
example, we show that ensembles of classifiers are more robust than mixtures of
classifiers, and randomized smoothing is more robust than input noise
injection. Finally, experiments confirm our theoretical results with the two
families of randomized classifiers we analyze.
- Abstract(参考訳): 深いニューラルネットワークは、敵の攻撃に弱いことが知られている。人間には認識できない小さな摂動は、よく訓練されたディープニューラルネットワークを誤って分類する。
敵対的攻撃から守るため、ランダム化分類器は決定論的攻撃の頑健な代替として提案されている。
この研究で、任意のランダム化分類器に対して、二項分類設定において、より良い対角リスクを持つ決定論的分類器が存在することを示す。
言い換えれば、ロバスト性にはランダム化は必要ない。
多くの一般的なランダム化スキームでは、より優れたリスクを持つ決定論的分類器が明確に説明されている: 例えば、分類器のアンサンブルは分類器の混合物よりも堅牢であり、ランダム化スムーシングは入力ノイズ注入よりも堅牢である。
最後に, 解析した2種類のランダム分類器を用いて実験を行い, 理論的結果を確認した。
関連論文リスト
- Conformal Predictions for Probabilistically Robust Scalable Machine Learning Classification [1.757077789361314]
コンフォーマルな予測により、信頼性と堅牢な学習アルゴリズムを定義することができる。
基本的には、アルゴリズムが実際に使われるのに十分であるかどうかを評価する方法である。
本稿では,設計当初から信頼性の高い分類学習フレームワークを定義した。
論文 参考訳(メタデータ) (2024-03-15T14:59:24Z) - Shortcomings of Top-Down Randomization-Based Sanity Checks for
Evaluations of Deep Neural Network Explanations [67.40641255908443]
モデルランダム化に基づく正当性チェックの限界を,説明書の評価のために同定する。
トップダウンモデルランダム化は、フォワードパスアクティベーションのスケールを高い確率で保存する。
論文 参考訳(メタデータ) (2022-11-22T18:52:38Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - On the Calibration of Probabilistic Classifier Sets [6.759124697337311]
我々はキャリブレーションの概念を拡張して、アレタリック不確実性表現の有効性を評価する。
ディープニューラルネットワークのアンサンブルがよく校正されていないことを示す。
論文 参考訳(メタデータ) (2022-05-20T10:57:46Z) - Self-Certifying Classification by Linearized Deep Assignment [65.0100925582087]
そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
論文 参考訳(メタデータ) (2022-01-26T19:59:14Z) - Optimal strategies for reject option classifiers [0.0]
拒絶オプションの分類では、分類器は予測から逸脱する不確実なケースで許可される。
我々は、最小選択リスクと保証カバレッジを持つ分類器を求める有界被覆モデルという対称的な定義を作成した。
任意のブラックボックス分類器の例から適切な不確かさスコアを学習するための2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-29T11:09:32Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Cautious Active Clustering [79.23797234241471]
ユークリッド空間上の未知の確率測度からサンプリングされた点の分類の問題を考える。
我々のアプローチは、未知の確率測度を、各クラスに対する条件付き確率の凸結合として考えることである。
論文 参考訳(メタデータ) (2020-08-03T23:47:31Z) - Quantifying the Uncertainty of Precision Estimates for Rule based Text
Classifiers [0.0]
キーサブストリングの存在と欠如を利用して分類決定を行うルールベースの分類器は、それらの精度の不確かさを定量化する自然なメカニズムを持つ。
バイナリ分類器にとって重要な洞察は、文書によって誘導される部分弦集合の分割をベルヌーイ確率変数として扱うことである。
このアプローチの実用性は、ベンチマーク問題で実証されている。
論文 参考訳(メタデータ) (2020-05-19T03:51:47Z) - Robustness Verification for Classifier Ensembles [3.5884936187733394]
堅牢性チェック問題は、ランダムな攻撃が存在するかどうかに関わらず、分類器とラベル付きデータセットのセットを与えられた評価によって成る。
問題のNP硬度を示し、最適なランダム化攻撃を形成するのに十分な攻撃数に上限を与える。
プロトタイプ実装では、画像分類タスクのために訓練された複数のニューラルネットワークアンサンブルを検証する。
論文 参考訳(メタデータ) (2020-05-12T07:38:43Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。