論文の概要: Constrained Gradient Descent: A Powerful and Principled Evasion Attack
Against Neural Networks
- arxiv url: http://arxiv.org/abs/2112.14232v1
- Date: Tue, 28 Dec 2021 17:36:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 15:34:33.661647
- Title: Constrained Gradient Descent: A Powerful and Principled Evasion Attack
Against Neural Networks
- Title(参考訳): Constrained Gradient Descent: ニューラルネットワークに対する強力で原則的な侵入攻撃
- Authors: Weiran Lin, Keane Lucas, Lujo Bauer, Michael K. Reiter and Mahmood
Sharif
- Abstract要約: 我々は,攻撃者の目的の直感に従って,攻撃対象のホワイトボックスを攻撃対象とするいくつかのイノベーションを紹介した。
まず,ターゲット攻撃の目的を明確に把握する新たな損失関数を提案する。
第2に,誤分類対象と$L_infty$距離制限の両方を捉えた損失関数のさらなる改良版を用いた新たな攻撃手法を提案する。
- 参考スコア(独自算出の注目度): 19.443306494201334
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Minimal adversarial perturbations added to inputs have been shown to be
effective at fooling deep neural networks. In this paper, we introduce several
innovations that make white-box targeted attacks follow the intuition of the
attacker's goal: to trick the model to assign a higher probability to the
target class than to any other, while staying within a specified distance from
the original input. First, we propose a new loss function that explicitly
captures the goal of targeted attacks, in particular, by using the logits of
all classes instead of just a subset, as is common. We show that Auto-PGD with
this loss function finds more adversarial examples than it does with other
commonly used loss functions. Second, we propose a new attack method that uses
a further developed version of our loss function capturing both the
misclassification objective and the $L_{\infty}$ distance limit $\epsilon$.
This new attack method is relatively 1.5--4.2% more successful on the CIFAR10
dataset and relatively 8.2--14.9% more successful on the ImageNet dataset, than
the next best state-of-the-art attack. We confirm using statistical tests that
our attack outperforms state-of-the-art attacks on different datasets and
values of $\epsilon$ and against different defenses.
- Abstract(参考訳): 入力に付加される最小対向摂動は、ディープニューラルネットワークを騙すのに有効であることが示されている。
本稿では,ホワイトボックス攻撃を標的とする攻撃を,攻撃者の目標の直観化に追従させる手法をいくつか紹介する。
まず,対象とする攻撃の目標を明示的に把握する新たな損失関数を提案する。
この損失関数を持つAuto-PGDは、他のよく使われる損失関数よりも多くの逆例を見出すことを示す。
第二に,誤分類目的と距離制限値である$l_{\infty}$の双方をキャプチャするロス関数のさらなる開発版である$\epsilon$を用いる新しい攻撃手法を提案する。
この新しい攻撃方法は、cifar10データセットでは1.5--4.2%成功し、imagenetデータセットでは8.2-14.9%成功している。
統計的テストによって、我々の攻撃が、異なるデータセットと$\epsilon$の値に対する最先端の攻撃よりも優れていることを確認しました。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - Adversarial Attacks Neutralization via Data Set Randomization [3.655021726150369]
ディープラーニングモデルに対する敵対的な攻撃は、信頼性とセキュリティに深刻な脅威をもたらす。
本稿では,超空間射影に根ざした新しい防御機構を提案する。
提案手法は,敵対的攻撃に対するディープラーニングモデルの堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2023-06-21T10:17:55Z) - Detection and Mitigation of Byzantine Attacks in Distributed Training [24.951227624475443]
ワーカノードの異常なビザンチン挙動は、トレーニングを脱線させ、推論の品質を損なう可能性がある。
最近の研究は、幅広い攻撃モデルを検討し、歪んだ勾配を補正するために頑健な集約と/または計算冗長性を探究している。
本研究では、強力な攻撃モデルについて検討する:$q$ omniscient adversaries with full knowledge of the defense protocol that can change from iteration to iteration to weak one: $q$ randomly selected adversaries with limited collusion abilities。
論文 参考訳(メタデータ) (2022-08-17T05:49:52Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Projective Ranking-based GNN Evasion Attacks [52.85890533994233]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクに対して、有望な学習方法を提供する。
GNNは敵の攻撃の危険にさらされている。
論文 参考訳(メタデータ) (2022-02-25T21:52:09Z) - Unreasonable Effectiveness of Last Hidden Layer Activations [0.5156484100374058]
本研究では, 高い温度値を持つモデルの出力層で広く知られているアクティベーション関数を用いることで, 標的および標的外攻撃事例の勾配をゼロにする効果が示された。
CIFAR10データセットであるMNIST(Digit)に対するアプローチの有効性を実験的に検証した。
論文 参考訳(メタデータ) (2022-02-15T12:02:59Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - GreedyFool: Distortion-Aware Sparse Adversarial Attack [138.55076781355206]
現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
論文 参考訳(メタデータ) (2020-10-26T17:59:07Z) - Minimax Defense against Gradient-based Adversarial Attacks [2.4403071643841243]
そこで我々は,極小最適化を応用した新たな手法を提案する。
我々のミニマックス防衛は98.07%(MNISTデフォルト98.93%)、73.90%(CIFAR-10デフォルト83.14%)、94.54%(TRAFFICデフォルト96.97%)を達成した。
我々のMinimax対逆アプローチは、ニューラルネットワーク分類器の防御戦略に大きな変化をもたらす。
論文 参考訳(メタデータ) (2020-02-04T12:33:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。