論文の概要: Unifying Gradients to Improve Real-world Robustness for Deep Networks
- arxiv url: http://arxiv.org/abs/2208.06228v1
- Date: Fri, 12 Aug 2022 11:41:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-15 13:11:59.934932
- Title: Unifying Gradients to Improve Real-world Robustness for Deep Networks
- Title(参考訳): 深層ネットワークにおける実世界のロバスト性向上のためのグラディエント統合
- Authors: Yingwen Wu, Sizhe Chen, Kun Fang, Xiaolin Huang
- Abstract要約: 我々は、異なるデータの勾配を統一するUnified Gradients (UniG) と呼ばれる現実世界の防衛法を提案する。
UniGは、攻撃者がツイストされ、情報に乏しい攻撃方向を示す。
CIFAR10とImageNetの正確さを損なうことなく、現実世界の堅牢性を大幅に改善する。
- 参考スコア(独自算出の注目度): 20.545127322875807
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The wide application of deep neural networks (DNNs) demands an increasing
amount of attention to their real-world robustness, i.e., whether a DNN resists
black-box adversarial attacks, among them score-based query attacks (SQAs) are
the most threatening ones because of their practicalities and effectiveness:
the attackers only need dozens of queries on model outputs to seriously hurt a
victim network. Defending against SQAs requires a slight but artful variation
of outputs due to the service purpose for users, who share the same output
information with attackers. In this paper, we propose a real-world defense,
called Unifying Gradients (UniG), to unify gradients of different data so that
attackers could only probe a much weaker attack direction that is similar for
different samples. Since such universal attack perturbations have been
validated as less aggressive than the input-specific perturbations, UniG
protects real-world DNNs by indicating attackers a twisted and less informative
attack direction. To enhance UniG's practical significance in real-world
applications, we implement it as a Hadamard product module that is
computationally-efficient and readily plugged into any model. According to
extensive experiments on 5 SQAs and 4 defense baselines, UniG significantly
improves real-world robustness without hurting clean accuracy on CIFAR10 and
ImageNet. For instance, UniG maintains a CIFAR-10 model of 77.80% accuracy
under 2500-query Square attack while the state-of-the-art adversarially-trained
model only has 67.34% on CIFAR10. Simultaneously, UniG greatly surpasses all
compared baselines in clean accuracy and the modification degree of outputs.
The code would be released.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の広範な適用は、実際のロバスト性(すなわち、DNNがブラックボックスの敵対的攻撃に抵抗するかどうか、その実用性と有効性から最も脅威となるものであるスコアベースのクエリアタック(SQA)が要求される。
SQAに対する防御には、攻撃者と同じ出力情報を共有しているユーザのために、サービス目的のために、わずかながら巧妙な出力のバリエーションが必要です。
本稿では,Unified Gradients (UniG) と呼ばれる実世界のディフェンスを提案し,異なるサンプルに対して類似したより弱い攻撃方向を攻撃者が探究できるように,異なるデータの勾配を統一する。
このようなユニバーサルアタックの摂動は入力固有の摂動よりも攻撃性が低いと確認されているため、unigは攻撃者がねじれて情報的な攻撃方向を指示することで現実世界のdnnを保護する。
実世界のアプリケーションにおけるUniGの実用的重要性を高めるため、計算効率が高く、任意のモデルに容易に接続できるアダマール製品モジュールとして実装する。
5つのSQAと4つの防衛ベースラインに関する広範な実験によると、UniGはCIFAR10とImageNetの正確さを損なうことなく、現実世界の堅牢性を著しく改善している。
例えば、UniGは2500-query Square攻撃下で77.80%の精度のCIFAR-10モデルを維持しているが、最先端の対角訓練モデルはCIFAR10で67.34%しか持たない。
同時に、UniGはクリーンな精度と出力の修正度で比較されたベースラインをはるかに上回っている。
コードはリリースされます。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - Hijacking Attacks against Neural Networks by Analyzing Training Data [21.277867143827812]
CleanSheetは、新しいモデルハイジャック攻撃で、モデルをトレーニングする相手を必要とせずに、バックドア攻撃のハイパフォーマンスを得る。
CleanSheetはトレーニングデータから発生したタンパーの脆弱性を利用する。
CIFAR-100では平均的な攻撃成功率(ASR)が97.5%、GTSRBでは92.4%である。
論文 参考訳(メタデータ) (2024-01-18T05:48:56Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Single Node Injection Label Specificity Attack on Graph Neural Networks
via Reinforcement Learning [8.666702832094874]
ブラックボックス回避設定においてターゲットノードを操作するために、単一の悪意あるノードを注入する勾配のない一般化可能な逆問題を提案する。
被害者モデルを直接クエリすることで、G$2$-SNIAは探索からパターンを学び、極めて限られた攻撃予算で多様な攻撃目標を達成する。
論文 参考訳(メタデータ) (2023-05-04T15:10:41Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Adversarial Attack on Attackers: Post-Process to Mitigate Black-Box
Score-Based Query Attacks [25.053383672515697]
本稿では,攻撃者に対する敵攻撃(AAA)という新たな防御策を提案し,SQAを誤った攻撃方向へ誘導する。
このように、SQAはモデルの最悪のケースの堅牢性に関係なく防止される。
論文 参考訳(メタデータ) (2022-05-24T15:10:50Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Don't Knock! Rowhammer at the Backdoor of DNN Models [19.13129153353046]
Rowhammerをフォールトインジェクション法として用いたモデル上で,実際のハードウェア上で実現したエンドツーエンドのバックドアインジェクション攻撃を提案する。
ハードウェアにおけるリアルなバックドアインジェクション攻撃を実現するために,制約付き最適化に基づく新しいネットワークトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-14T19:43:53Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - TDGIA:Effective Injection Attacks on Graph Neural Networks [21.254710171416374]
グラフインジェクションアタック(GIA)における最近導入された現実的な攻撃シナリオについて検討する。
GIAのシナリオでは、敵は既存のリンク構造や入力グラフのノード属性を変更することができない。
本稿では,GIA設定下でのGNNのトポロジ的脆弱性の解析を行い,効果的なインジェクション攻撃のためのトポロジカルデフェクティブグラフインジェクション攻撃(TDGIA)を提案する。
論文 参考訳(メタデータ) (2021-06-12T01:53:25Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。