論文の概要: Jacobian Regularization for Mitigating Universal Adversarial
Perturbations
- arxiv url: http://arxiv.org/abs/2104.10459v1
- Date: Wed, 21 Apr 2021 11:00:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 14:38:48.016938
- Title: Jacobian Regularization for Mitigating Universal Adversarial
Perturbations
- Title(参考訳): 普遍的対向摂動の緩和のためのヤコビ正規化
- Authors: Kenneth T. Co, David Martinez Rego, Emil C. Lupu
- Abstract要約: UAP(Universal Adversarial Perturbations)は、大規模なデータセットでニューラルネットワークを騙すことができる入力摂動である。
データ依存ヤコビアンのノルムに基づくUPAの有効性の上限を導出する。
- 参考スコア(独自算出の注目度): 2.9465623430708905
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Universal Adversarial Perturbations (UAPs) are input perturbations that can
fool a neural network on large sets of data. They are a class of attacks that
represents a significant threat as they facilitate realistic, practical, and
low-cost attacks on neural networks. In this work, we derive upper bounds for
the effectiveness of UAPs based on norms of data-dependent Jacobians. We
empirically verify that Jacobian regularization greatly increases model
robustness to UAPs by up to four times whilst maintaining clean performance.
Our theoretical analysis also allows us to formulate a metric for the strength
of shared adversarial perturbations between pairs of inputs. We apply this
metric to benchmark datasets and show that it is highly correlated with the
actual observed robustness. This suggests that realistic and practical
universal attacks can be reliably mitigated without sacrificing clean accuracy,
which shows promise for the robustness of machine learning systems.
- Abstract(参考訳): UAP(Universal Adversarial Perturbations)は、大規模なデータセットでニューラルネットワークを騙すことができる入力摂動である。
これらは、ニューラルネットワークに対する現実的で実践的で低コストな攻撃を促進するため、重大な脅威を示す一連の攻撃である。
本研究では、データ依存ヤコビアンのノルムに基づいて、UAPの有効性の上限を導出する。
クリーンな性能を維持しつつ, モデルロバスト性を最大4倍に向上させることを実証的に検証した。
理論的解析により、入力対間の共振の強度の計量を定式化することもできる。
このメトリックをベンチマークデータセットに適用し,実際に観測されたロバスト性と高い相関性を示す。
これは、クリーンな精度を犠牲にすることなく、現実的で実用的なユニバーサルアタックを確実に緩和できることを示唆している。
関連論文リスト
- Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - Bridging Optimal Transport and Jacobian Regularization by Optimal
Trajectory for Enhanced Adversarial Defense [27.923344040692744]
逆行訓練とヤコビ正則化の複雑さを2つの重要な防御法として分析した。
本稿では, OTJR と呼ばれるヤコビ正規化手法を用いた新しい最適輸送法を提案する。
CIFAR-10では52.57%、CIFAR-100データセットでは28.3%と評価された。
論文 参考訳(メタデータ) (2023-03-21T12:22:59Z) - Out-of-Distribution Detection with Hilbert-Schmidt Independence
Optimization [114.43504951058796]
異常検出タスクはAIの安全性において重要な役割を担っている。
ディープニューラルネットワーク分類器は通常、アウト・オブ・ディストリビューション(OOD)の入力を、信頼性の高いイン・ディストリビューション・クラスに誤って分類する傾向がある。
我々は,OOD検出タスクにおいて実用的かつ理論的に有効な代替確率論的パラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-26T15:59:55Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Improved and Interpretable Defense to Transferred Adversarial Examples
by Jacobian Norm with Selective Input Gradient Regularization [31.516568778193157]
ディープニューラルネットワーク(DNN)の堅牢性を改善するために、AT(Adversarial Training)がよく用いられる。
本研究では,ジャコビアンノルムと選択的入力勾配正規化(J-SIGR)に基づくアプローチを提案する。
実験により、提案したJ-SIGRは、転送された敵攻撃に対するロバスト性を向上し、ニューラルネットワークからの予測が容易に解釈できることが示されている。
論文 参考訳(メタデータ) (2022-07-09T01:06:41Z) - Adversarial Vulnerability of Randomized Ensembles [12.082239973914326]
ランダム化アンサンブルは、通常のATモデルよりも、知覚不能な逆方向の摂動に対して脆弱であることを示す。
本稿では,適応PGDが実現しなかった場合においても,ランダムアンサンブルを再現できる理論的・効率的な攻撃アルゴリズム(ARC)を提案する。
論文 参考訳(メタデータ) (2022-06-14T10:37:58Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Jacobian Ensembles Improve Robustness Trade-offs to Adversarial Attacks [5.70772577110828]
本稿では,UAPに対するロバスト性を高めるために,新しいアプローチであるJacobian Ensemblesを提案する。
以上の結果から,ヤコビアンアン・アンサンブルは未確認の精度とロバスト性を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-04-19T08:04:38Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Universal Adversarial Attack on Deep Learning Based Prognostics [0.0]
本稿では,不当な回帰に基づくRUL予測モデルに対する特別な知覚不可能な雑音である,普遍的対向摂動の概念を提案する。
入力データの任意のインスタンスに普遍的逆摂動を加えると、モデルが予測した出力の誤差が増加することを示す。
さらに, 摂動強度の変動がRUL予測モデルに与える影響を実証し, 摂動強度の増加に伴いモデル精度が低下することを示した。
論文 参考訳(メタデータ) (2021-09-15T08:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。