論文の概要: Robustness Verification for Classifier Ensembles
- arxiv url: http://arxiv.org/abs/2005.05587v2
- Date: Thu, 9 Jul 2020 07:43:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 18:24:25.695806
- Title: Robustness Verification for Classifier Ensembles
- Title(参考訳): 分類器アンサンブルのロバスト性検証
- Authors: Dennis Gross, Nils Jansen, Guillermo A. P\'erez, Stephan Raaijmakers
- Abstract要約: 堅牢性チェック問題は、ランダムな攻撃が存在するかどうかに関わらず、分類器とラベル付きデータセットのセットを与えられた評価によって成る。
問題のNP硬度を示し、最適なランダム化攻撃を形成するのに十分な攻撃数に上限を与える。
プロトタイプ実装では、画像分類タスクのために訓練された複数のニューラルネットワークアンサンブルを検証する。
- 参考スコア(独自算出の注目度): 3.5884936187733394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We give a formal verification procedure that decides whether a classifier
ensemble is robust against arbitrary randomized attacks. Such attacks consist
of a set of deterministic attacks and a distribution over this set. The
robustness-checking problem consists of assessing, given a set of classifiers
and a labelled data set, whether there exists a randomized attack that induces
a certain expected loss against all classifiers. We show the NP-hardness of the
problem and provide an upper bound on the number of attacks that is sufficient
to form an optimal randomized attack. These results provide an effective way to
reason about the robustness of a classifier ensemble. We provide SMT and MILP
encodings to compute optimal randomized attacks or prove that there is no
attack inducing a certain expected loss. In the latter case, the classifier
ensemble is provably robust. Our prototype implementation verifies multiple
neural-network ensembles trained for image-classification tasks. The
experimental results using the MILP encoding are promising both in terms of
scalability and the general applicability of our verification procedure.
- Abstract(参考訳): 任意のランダム化攻撃に対して,分類器アンサンブルが堅牢かどうかを判定する形式的検証手順を与える。
このような攻撃は決定論的な攻撃の集合と、この集合上の分布からなる。
ロバストネスチェック問題は、分類器の集合とラベル付きデータセットが与えられた場合、全ての分類器に対して一定の損失をもたらすランダムな攻撃が存在するかどうかを評価することである。
問題のnp硬度を示し、最適なランダム化攻撃を形成するのに十分な攻撃数の上限を提供する。
これらの結果は、分類器アンサンブルのロバスト性を評価する効果的な方法を与える。
最適なランダム化攻撃を計算したり、特定の損失を発生させる攻撃が存在しないことを証明するために、SMTおよびMILP符号化を提供する。
後者の場合、分類器アンサンブルは確実に堅牢である。
画像分類タスク用に訓練された複数のニューラルネットワークアンサンブルを検証する。
MILP符号化を用いた実験結果は,スケーラビリティと検証手順の適用性の両方において有望である。
関連論文リスト
- Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Characterizing the Optimal 0-1 Loss for Multi-class Classification with
a Test-time Attacker [57.49330031751386]
我々は,任意の離散データセット上の複数クラス分類器に対するテスト時間攻撃の存在下での損失に対する情報理論的下位境界を求める。
本稿では,データと敵対的制約から競合ハイパーグラフを構築する際に発生する最適0-1損失を求めるための一般的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-02-21T15:17:13Z) - On the Role of Randomization in Adversarially Robust Classification [13.39932522722395]
ランダムなアンサンブルは、敵のリスクに設定された仮説より優れていることを示す。
また、そのような決定論的分類器を含む決定論的仮説セットを明示的に記述する。
論文 参考訳(メタデータ) (2023-02-14T17:51:00Z) - RS-Del: Edit Distance Robustness Certificates for Sequence Classifiers
via Randomized Deletion [23.309600117618025]
離散列分類器のランダム化スムーシングを適用して、編集距離境界の敵に対して確固たるロバスト性を提供する。
私たちの証明は、確立されたNeyman-Pearsonアプローチから逸脱したものです。
一般的なMalConvマルウェア検出モデルに適用すると、スムーシング機構RS-Delは128バイトの編集距離半径で91%の精度を達成できる。
論文 参考訳(メタデータ) (2023-01-31T01:40:26Z) - Self-Certifying Classification by Linearized Deep Assignment [65.0100925582087]
そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
論文 参考訳(メタデータ) (2022-01-26T19:59:14Z) - PARL: Enhancing Diversity of Ensemble Networks to Resist Adversarial
Attacks via Pairwise Adversarially Robust Loss Function [13.417003144007156]
敵の攻撃は 転送可能性の原理に 依存する傾向があります
敵攻撃に対するアンサンブル法は、敵の例が複数の分類器を誤解させる可能性が低いことを示す。
最近のアンサンブル法は、より強い敵に弱いか、エンドツーエンドの評価が欠如していることが示されている。
論文 参考訳(メタデータ) (2021-12-09T14:26:13Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - PopSkipJump: Decision-Based Attack for Probabilistic Classifiers [43.62922682676909]
P(robabilisticH)opSkipJumpは、さまざまなノイズレベルのHopSkipJumpの出力品質を維持するために、クエリの量を調整する。
オフザシェルフのランダム化された防御は、決定に基づく攻撃に対して、余分な堅牢性をほとんど提供しないことを示す。
論文 参考訳(メタデータ) (2021-06-14T14:13:12Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。