論文の概要: Unifying Gradients to Improve Real-world Robustness for Deep Networks
- arxiv url: http://arxiv.org/abs/2208.06228v2
- Date: Thu, 24 Aug 2023 14:22:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 18:50:29.715327
- Title: Unifying Gradients to Improve Real-world Robustness for Deep Networks
- Title(参考訳): 深層ネットワークにおける実世界のロバスト性向上のためのグラディエント統合
- Authors: Yingwen Wu, Sizhe Chen, Kun Fang, Xiaolin Huang
- Abstract要約: 我々は,異なるデータのグラディエント(Unified Gradients,UniG)を統一した実世界の防衛法を提案する。
UniGは、攻撃者がツイストされ、情報に乏しい攻撃方向を示す。
プラグアンドプレイの製品モジュールであるHadamardでUniGを効率的に実装する。
- 参考スコア(独自算出の注目度): 28.94112170725205
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The wide application of deep neural networks (DNNs) demands an increasing
amount of attention to their real-world robustness, i.e., whether a DNN resists
black-box adversarial attacks, among which score-based query attacks (SQAs) are
most threatening since they can effectively hurt a victim network with the only
access to model outputs. Defending against SQAs requires a slight but artful
variation of outputs due to the service purpose for users, who share the same
output information with SQAs. In this paper, we propose a real-world defense by
Unifying Gradients (UniG) of different data so that SQAs could only probe a
much weaker attack direction that is similar for different samples. Since such
universal attack perturbations have been validated as less aggressive than the
input-specific perturbations, UniG protects real-world DNNs by indicating
attackers a twisted and less informative attack direction. We implement UniG
efficiently by a Hadamard product module which is plug-and-play. According to
extensive experiments on 5 SQAs, 2 adaptive attacks and 7 defense baselines,
UniG significantly improves real-world robustness without hurting clean
accuracy on CIFAR10 and ImageNet. For instance, UniG maintains a model of
77.80% accuracy under 2500-query Square attack while the state-of-the-art
adversarially-trained model only has 67.34% on CIFAR10. Simultaneously, UniG
outperforms all compared baselines in terms of clean accuracy and achieves the
smallest modification of the model output. The code is released at
https://github.com/snowien/UniG-pytorch.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)の広範な適用は、実世界の堅牢性、すなわち、dnnがブラックボックスの敵対的攻撃に抵抗するかどうか、あるいはスコアベースのクエリアタック(sqas)が最も脅威となるかどうかに、より多くの注意を払う必要がある。
SQAに対する防御には、SQAと同じ出力情報を共有するユーザのために、サービス目的のために、わずかながら巧妙な出力のバリエーションが必要です。
本稿では,異なるサンプルに対して類似したより弱い攻撃方向をSQAが探すことができるように,異なるデータの統一勾配(UniG)による実世界防御を提案する。
このようなユニバーサルアタックの摂動は入力固有の摂動よりも攻撃性が低いと確認されているため、unigは攻撃者がねじれて情報的な攻撃方向を指示することで現実世界のdnnを保護する。
プラグアンドプレイの製品モジュールであるHadamardでUniGを効率的に実装する。
5つのSQA、2つのアダプティブアタック、7つの防御ベースラインに関する広範な実験によると、UniGはCIFAR10とImageNetの正確さを損なうことなく、現実世界のロバスト性を大幅に改善する。
例えば、UniGは2500-query Square攻撃の下で77.80%の精度のモデルを維持しているが、最先端の対角訓練モデルはCIFAR10で67.34%しか持たない。
同時に、UniGは比較されたすべてのベースラインをクリーンな精度で上回り、モデル出力の最小修正を実現する。
コードはhttps://github.com/snowien/unig-pytorchでリリースされる。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - Hijacking Attacks against Neural Networks by Analyzing Training Data [21.277867143827812]
CleanSheetは、新しいモデルハイジャック攻撃で、モデルをトレーニングする相手を必要とせずに、バックドア攻撃のハイパフォーマンスを得る。
CleanSheetはトレーニングデータから発生したタンパーの脆弱性を利用する。
CIFAR-100では平均的な攻撃成功率(ASR)が97.5%、GTSRBでは92.4%である。
論文 参考訳(メタデータ) (2024-01-18T05:48:56Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Single Node Injection Label Specificity Attack on Graph Neural Networks
via Reinforcement Learning [8.666702832094874]
ブラックボックス回避設定においてターゲットノードを操作するために、単一の悪意あるノードを注入する勾配のない一般化可能な逆問題を提案する。
被害者モデルを直接クエリすることで、G$2$-SNIAは探索からパターンを学び、極めて限られた攻撃予算で多様な攻撃目標を達成する。
論文 参考訳(メタデータ) (2023-05-04T15:10:41Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Adversarial Attack on Attackers: Post-Process to Mitigate Black-Box
Score-Based Query Attacks [25.053383672515697]
本稿では,攻撃者に対する敵攻撃(AAA)という新たな防御策を提案し,SQAを誤った攻撃方向へ誘導する。
このように、SQAはモデルの最悪のケースの堅牢性に関係なく防止される。
論文 参考訳(メタデータ) (2022-05-24T15:10:50Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Don't Knock! Rowhammer at the Backdoor of DNN Models [19.13129153353046]
Rowhammerをフォールトインジェクション法として用いたモデル上で,実際のハードウェア上で実現したエンドツーエンドのバックドアインジェクション攻撃を提案する。
ハードウェアにおけるリアルなバックドアインジェクション攻撃を実現するために,制約付き最適化に基づく新しいネットワークトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-14T19:43:53Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - TDGIA:Effective Injection Attacks on Graph Neural Networks [21.254710171416374]
グラフインジェクションアタック(GIA)における最近導入された現実的な攻撃シナリオについて検討する。
GIAのシナリオでは、敵は既存のリンク構造や入力グラフのノード属性を変更することができない。
本稿では,GIA設定下でのGNNのトポロジ的脆弱性の解析を行い,効果的なインジェクション攻撃のためのトポロジカルデフェクティブグラフインジェクション攻撃(TDGIA)を提案する。
論文 参考訳(メタデータ) (2021-06-12T01:53:25Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。