論文の概要: Understanding and Improving Ensemble Adversarial Defense
- arxiv url: http://arxiv.org/abs/2310.18477v2
- Date: Thu, 2 Nov 2023 11:57:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 16:20:12.107925
- Title: Understanding and Improving Ensemble Adversarial Defense
- Title(参考訳): アンサンブル対人防御の理解と改善
- Authors: Yian Deng, Tingting Mu
- Abstract要約: 我々は、アンサンブルの防御を理解するための新しい誤り理論を開発した。
我々は,対話的グローバル対人訓練(iGAT)という,アンサンブル対人防御を改善する効果的なアプローチを提案する。
iGATは、ホワイトボックスとブラックボックスの両方の攻撃下で、CIFAR10とCIFAR100データセットを使用して評価された最大17%のパフォーマンスを向上させることができる。
- 参考スコア(独自算出の注目度): 4.504026914523449
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The strategy of ensemble has become popular in adversarial defense, which
trains multiple base classifiers to defend against adversarial attacks in a
cooperative manner. Despite the empirical success, theoretical explanations on
why an ensemble of adversarially trained classifiers is more robust than single
ones remain unclear. To fill in this gap, we develop a new error theory
dedicated to understanding ensemble adversarial defense, demonstrating a
provable 0-1 loss reduction on challenging sample sets in an adversarial
defense scenario. Guided by this theory, we propose an effective approach to
improve ensemble adversarial defense, named interactive global adversarial
training (iGAT). The proposal includes (1) a probabilistic distributing rule
that selectively allocates to different base classifiers adversarial examples
that are globally challenging to the ensemble, and (2) a regularization term to
rescue the severest weaknesses of the base classifiers. Being tested over
various existing ensemble adversarial defense techniques, iGAT is capable of
boosting their performance by increases up to 17% evaluated using CIFAR10 and
CIFAR100 datasets under both white-box and black-box attacks.
- Abstract(参考訳): アンサンブルの戦略は、協調的な方法で敵の攻撃から防御するために複数のベース分類器を訓練する敵防御に人気がある。
実証的な成功にもかかわらず、なぜ敵対的に訓練された分類器の集合が単体よりも頑丈なのかという理論的説明はいまだにない。
このギャップを埋めるために,アンサンブルな対向防御を理解するための新しい誤り理論を開発し,対向防御シナリオにおいて,挑戦的なサンプル集合に対する0-1の損失低減を示す。
この理論を導いた本研究では,対話的グローバル対人訓練(iGAT)と呼ばれる,アンサンブル対人防御を改善する効果的なアプローチを提案する。
本提案は,(1) アンサンブルに難易度の高い異なる基本分類器に対して選択的に割り当てる確率分布規則,(2) 基本分類器の深刻な弱点を解消するための正規化項を含む。
既存のさまざまなアンサンブル対防御技術でテストされているiGATは、ホワイトボックスとブラックボックスの両方の攻撃下で、CIFAR10とCIFAR100データセットを使用して評価された最大17%の性能を向上させることができる。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Improving Adversarial Robustness with Self-Paced Hard-Class Pair
Reweighting [5.084323778393556]
標的外攻撃による敵の訓練は 最も認知されている方法の1つです
自然に不均衡なクラス間のセマンティックな類似性により、これらのハードクラスのペアが互いに仮想的なターゲットになる。
モデル最適化における重み付きハードクラスペアの損失について提案し、ハードクラスからの識別的特徴の学習を促す。
論文 参考訳(メタデータ) (2022-10-26T22:51:36Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - PARL: Enhancing Diversity of Ensemble Networks to Resist Adversarial
Attacks via Pairwise Adversarially Robust Loss Function [13.417003144007156]
敵の攻撃は 転送可能性の原理に 依存する傾向があります
敵攻撃に対するアンサンブル法は、敵の例が複数の分類器を誤解させる可能性が低いことを示す。
最近のアンサンブル法は、より強い敵に弱いか、エンドツーエンドの評価が欠如していることが示されている。
論文 参考訳(メタデータ) (2021-12-09T14:26:13Z) - Saliency Diversified Deep Ensemble for Robustness to Adversaries [1.9659095632676094]
本研究は,深層アンサンブルのための新しい多様性促進学習手法を提案する。
この考え方は、アンサンブルのメンバーが一度にすべてのアンサンブルメンバーを標的にしないよう、サリエンシマップの多様性(SMD)を促進することである。
アンサンブル構成員間の移動性が低下し,最先端のアンサンブル防御よりも性能が向上したことを実証的に示す。
論文 参考訳(メタデータ) (2021-12-07T10:18:43Z) - Universal Adversarial Training with Class-Wise Perturbations [78.05383266222285]
敵の訓練は 敵の攻撃を防御するために 最も広く使われる方法です
この作業では、UAPがすべてのクラスを等しく攻撃しないことがわかります。
我々は,対人訓練におけるクラスワイドUAPの利用を提案することで,SOTA UATを改善した。
論文 参考訳(メタデータ) (2021-04-07T09:05:49Z) - Adversarial Example Games [51.92698856933169]
Adrial Example Games (AEG) は、敵の例の製作をモデル化するフレームワークである。
AEGは、ある仮説クラスからジェネレータとアバーサを反対に訓練することで、敵の例を設計する新しい方法を提供する。
MNIST と CIFAR-10 データセットに対する AEG の有効性を示す。
論文 参考訳(メタデータ) (2020-07-01T19:47:23Z) - Harnessing adversarial examples with a surprisingly simple defense [47.64219291655723]
敵の例に対抗して、非常に簡単な方法を紹介します。
基本的な考え方は、テスト時にReLU関数の傾きを上げることである。
MNISTとCIFAR-10データセットによる実験では、提案された防御の有効性が示されている。
論文 参考訳(メタデータ) (2020-04-26T03:09:42Z) - Defensive Few-shot Learning [77.82113573388133]
本稿では,防御的数発学習という新たな課題について検討する。
敵の攻撃に対して頑丈な数発のモデルを学習することを目的としている。
提案したフレームワークは、既存の数発のモデルを敵攻撃に対して効果的に堅牢にすることができる。
論文 参考訳(メタデータ) (2019-11-16T05:57:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。