論文の概要: Democratic Training Against Universal Adversarial Perturbations
- arxiv url: http://arxiv.org/abs/2502.05542v1
- Date: Sat, 08 Feb 2025 12:15:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:30:49.198072
- Title: Democratic Training Against Universal Adversarial Perturbations
- Title(参考訳): 普遍的敵対的摂動に対する民主的訓練
- Authors: Bing Sun, Jun Sun, Wei Zhao,
- Abstract要約: 本研究では, 普遍的対向摂動が通常, 隠蔽層に異常なエントロピースペクトルをもたらすことを観察する。
我々は,emphDemocratic TrainingというUAPを効果的かつ効果的に防御する方法を提案する。
その結果, 攻撃成功率を効果的に低減し, モデル堅牢性を向上し, クリーンサンプルのモデル精度を維持できることがわかった。
- 参考スコア(独自算出の注目度): 7.123808749940524
- License:
- Abstract: Despite their advances and success, real-world deep neural networks are known to be vulnerable to adversarial attacks. Universal adversarial perturbation, an input-agnostic attack, poses a serious threat for them to be deployed in security-sensitive systems. In this case, a single universal adversarial perturbation deceives the model on a range of clean inputs without requiring input-specific optimization, which makes it particularly threatening. In this work, we observe that universal adversarial perturbations usually lead to abnormal entropy spectrum in hidden layers, which suggests that the prediction is dominated by a small number of ``feature'' in such cases (rather than democratically by many features). Inspired by this, we propose an efficient yet effective defense method for mitigating UAPs called \emph{Democratic Training} by performing entropy-based model enhancement to suppress the effect of the universal adversarial perturbations in a given model. \emph{Democratic Training} is evaluated with 7 neural networks trained on 5 benchmark datasets and 5 types of state-of-the-art universal adversarial attack methods. The results show that it effectively reduces the attack success rate, improves model robustness and preserves the model accuracy on clean samples.
- Abstract(参考訳): 彼らの進歩と成功にもかかわらず、現実世界のディープニューラルネットワークは敵の攻撃に弱いことが知られている。
入力に依存しない攻撃であるユニバーサル・逆境の摂動は、それらがセキュリティに敏感なシステムに配備されるという深刻な脅威を引き起こす。
この場合、単一対向摂動は入力固有の最適化を必要とせず、クリーンな入力範囲でモデルを欺くため、特に脅威となる。
本研究は, 普遍的対向摂動が通常, 隠蔽層に異常なエントロピースペクトルをもたらすことを観察し, このような場合(多くの特徴により民主的ではなく)に少数の「機能」が予測を支配下に置くことを示唆する。
そこで本研究では, エントロピーに基づくモデル拡張を行うことにより, 与えられたモデルにおける普遍的対向摂動の影響を抑制することにより, UAP を緩和し, 効果的かつ効果的に防御する手法を提案する。
\emph{Democratic Training}は、5つのベンチマークデータセットと5種類の最先端の普遍的敵攻撃手法でトレーニングされた7つのニューラルネットワークで評価される。
その結果, 攻撃成功率を効果的に低減し, モデル堅牢性を向上し, クリーンサンプルのモデル精度を維持できることがわかった。
関連論文リスト
- Protecting Feed-Forward Networks from Adversarial Attacks Using Predictive Coding [0.20718016474717196]
逆の例は、機械学習(ML)モデルが誤りを犯すように設計された、修正された入力イメージである。
本研究では,敵防衛のための補助的なステップとして,予測符号化ネットワーク(PCnet)を用いた実用的で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T21:38:05Z) - Universal Adversarial Defense in Remote Sensing Based on Pre-trained Denoising Diffusion Models [17.283914361697818]
深部ニューラルネットワーク(DNN)は、地球観測のための多数のAIアプリケーション(AI4EO)において重要なソリューションとして注目されている。
本稿では、リモートセンシング画像(UAD-RS)における新しいユニバーサル・ディフェンス・アプローチを提案する。
論文 参考訳(メタデータ) (2023-07-31T17:21:23Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Real-time Detection of Practical Universal Adversarial Perturbations [3.806971160251168]
ディープニューラルネットワーク(dnn)に対する物理的に実現可能で堅牢な攻撃を可能にするuniversal adversarial perturbation(uaps)
本稿では、UAPのリアルタイム検出を可能にする効率的でスケーラブルなアルゴリズムであるHyperNeuronを提案する。
論文 参考訳(メタデータ) (2021-05-16T03:01:29Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Universal Adversarial Training with Class-Wise Perturbations [78.05383266222285]
敵の訓練は 敵の攻撃を防御するために 最も広く使われる方法です
この作業では、UAPがすべてのクラスを等しく攻撃しないことがわかります。
我々は,対人訓練におけるクラスワイドUAPの利用を提案することで,SOTA UATを改善した。
論文 参考訳(メタデータ) (2021-04-07T09:05:49Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Omni: Automated Ensemble with Unexpected Models against Adversarial
Evasion Attack [35.0689225703137]
機械学習に基づくセキュリティ検出モデルは、敵の回避攻撃の影響を受けやすい。
我々はオムニ(Omni)と呼ばれる手法を提案し、「予期せぬモデル」のアンサンブルを作成する方法を探る。
5種類の敵対的回避攻撃による研究において,オムニは防衛戦略として有望なアプローチであることを示す。
論文 参考訳(メタデータ) (2020-11-23T20:02:40Z) - Perceptual Adversarial Robustness: Defense Against Unseen Threat Models [58.47179090632039]
敵対的堅牢性の鍵となる課題は、人間の知覚を正確に数学的に特徴づけることの欠如である。
ニューラル・パーセプチュアル・脅威モデルの下で、我々は新しいパーセプチュアル・アタックとディフェンスを開発する。
NPTMは非常に広範であるため、知覚的攻撃に対する知覚的適応訓練(PAT)は、他の多くの種類の敵対的攻撃に対して堅牢性を与える。
論文 参考訳(メタデータ) (2020-06-22T22:40:46Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。