論文の概要: PopSkipJump: Decision-Based Attack for Probabilistic Classifiers
- arxiv url: http://arxiv.org/abs/2106.07445v1
- Date: Mon, 14 Jun 2021 14:13:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:34:46.196019
- Title: PopSkipJump: Decision-Based Attack for Probabilistic Classifiers
- Title(参考訳): PopSkipJump: 確率的分類のための決定に基づく攻撃
- Authors: Carl-Johann Simon-Gabriel and Noman Ahmed Sheikh and Andreas Krause
- Abstract要約: P(robabilisticH)opSkipJumpは、さまざまなノイズレベルのHopSkipJumpの出力品質を維持するために、クエリの量を調整する。
オフザシェルフのランダム化された防御は、決定に基づく攻撃に対して、余分な堅牢性をほとんど提供しないことを示す。
- 参考スコア(独自算出の注目度): 43.62922682676909
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most current classifiers are vulnerable to adversarial examples, small input
perturbations that change the classification output. Many existing attack
algorithms cover various settings, from white-box to black-box classifiers, but
typically assume that the answers are deterministic and often fail when they
are not. We therefore propose a new adversarial decision-based attack
specifically designed for classifiers with probabilistic outputs. It is based
on the HopSkipJump attack by Chen et al. (2019, arXiv:1904.02144v5 ), a strong
and query efficient decision-based attack originally designed for deterministic
classifiers. Our P(robabilisticH)opSkipJump attack adapts its amount of queries
to maintain HopSkipJump's original output quality across various noise levels,
while converging to its query efficiency as the noise level decreases. We test
our attack on various noise models, including state-of-the-art off-the-shelf
randomized defenses, and show that they offer almost no extra robustness to
decision-based attacks. Code is available at
https://github.com/cjsg/PopSkipJump .
- Abstract(参考訳): 現在の分類器のほとんどは、分類出力を変える小さな入力摂動の逆例に弱い。
多くの既存の攻撃アルゴリズムは、ホワイトボックスからブラックボックスの分類器まで様々な設定をカバーしているが、通常、答えは決定論的であり、多くの場合失敗する。
そこで本研究では,確率的アウトプットを持つ分類器を対象とする新たな攻撃手法を提案する。
これはChenらによるHopSkipJump攻撃に基づいている。
(2019, arXiv:1904.02144v5)は、決定論的分類器用に設計された、強力でクエリの効率的な決定ベースの攻撃である。
我々のP(robabilisticH)opSkipJump攻撃は、HopSkipJumpの出力品質を様々なノイズレベルにわたって維持し、ノイズレベルが減少するにつれてクエリ効率に収束する。
我々は、最先端の無作為防御を含む様々なノイズモデルに対する我々の攻撃をテストし、決定に基づく攻撃にほとんど強固さがないことを示した。
コードはhttps://github.com/cjsg/PopSkipJumpで入手できる。
関連論文リスト
- On the Role of Randomization in Adversarially Robust Classification [13.39932522722395]
ランダムなアンサンブルは、敵のリスクに設定された仮説より優れていることを示す。
また、そのような決定論的分類器を含む決定論的仮説セットを明示的に記述する。
論文 参考訳(メタデータ) (2023-02-14T17:51:00Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Post-Training Detection of Backdoor Attacks for Two-Class and
Multi-Attack Scenarios [22.22337220509128]
バックドア攻撃(BA)は、ディープニューラルネットワーク分類器に対する新たな脅威である。
本稿では,BPリバースエンジニアリングに基づく検出フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-20T22:21:38Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Composite Adversarial Attacks [57.293211764569996]
敵対攻撃は、機械学習(ML)モデルを欺くための技術です。
本論文では,攻撃アルゴリズムの最適組み合わせを自動的に探索するための複合攻撃法(Composite Adrial Attack,CAA)を提案する。
CAAは11の防衛でトップ10の攻撃を破り、時間の経過は少ない。
論文 参考訳(メタデータ) (2020-12-10T03:21:16Z) - Robustness Verification for Classifier Ensembles [3.5884936187733394]
堅牢性チェック問題は、ランダムな攻撃が存在するかどうかに関わらず、分類器とラベル付きデータセットのセットを与えられた評価によって成る。
問題のNP硬度を示し、最適なランダム化攻撃を形成するのに十分な攻撃数に上限を与える。
プロトタイプ実装では、画像分類タスクのために訓練された複数のニューラルネットワークアンサンブルを検証する。
論文 参考訳(メタデータ) (2020-05-12T07:38:43Z) - Randomization matters. How to defend against strong adversarial attacks [17.438104235331085]
敵の攻撃と防御は、古典的な結果が適用されない無限ゼロサムゲームを形成することを示す。
本研究の防御方法は,最先端攻撃に対する対人訓練を著しく上回っていることを示す。
論文 参考訳(メタデータ) (2020-02-26T15:31:31Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。