論文の概要: Saliency Diversified Deep Ensemble for Robustness to Adversaries
- arxiv url: http://arxiv.org/abs/2112.03615v1
- Date: Tue, 7 Dec 2021 10:18:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 21:01:55.392083
- Title: Saliency Diversified Deep Ensemble for Robustness to Adversaries
- Title(参考訳): 敵に対するロバスト性のための給与分散深層アンサンブル
- Authors: Alex Bogun, Dimche Kostadinov, Damian Borth
- Abstract要約: 本研究は,深層アンサンブルのための新しい多様性促進学習手法を提案する。
この考え方は、アンサンブルのメンバーが一度にすべてのアンサンブルメンバーを標的にしないよう、サリエンシマップの多様性(SMD)を促進することである。
アンサンブル構成員間の移動性が低下し,最先端のアンサンブル防御よりも性能が向上したことを実証的に示す。
- 参考スコア(独自算出の注目度): 1.9659095632676094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models have shown incredible performance on numerous image
recognition, classification, and reconstruction tasks. Although very appealing
and valuable due to their predictive capabilities, one common threat remains
challenging to resolve. A specifically trained attacker can introduce malicious
input perturbations to fool the network, thus causing potentially harmful
mispredictions. Moreover, these attacks can succeed when the adversary has full
access to the target model (white-box) and even when such access is limited
(black-box setting). The ensemble of models can protect against such attacks
but might be brittle under shared vulnerabilities in its members (attack
transferability). To that end, this work proposes a novel diversity-promoting
learning approach for the deep ensembles. The idea is to promote saliency map
diversity (SMD) on ensemble members to prevent the attacker from targeting all
ensemble members at once by introducing an additional term in our learning
objective. During training, this helps us minimize the alignment between model
saliencies to reduce shared member vulnerabilities and, thus, increase ensemble
robustness to adversaries. We empirically show a reduced transferability
between ensemble members and improved performance compared to the
state-of-the-art ensemble defense against medium and high strength white-box
attacks. In addition, we demonstrate that our approach combined with existing
methods outperforms state-of-the-art ensemble algorithms for defense under
white-box and black-box attacks.
- Abstract(参考訳): ディープラーニングモデルは、多くの画像認識、分類、再構築タスクにおいて素晴らしいパフォーマンスを示している。
予測能力のために非常に魅力的で価値が高いが、一つの共通の脅威は解決が困難なままである。
特定の訓練を受けた攻撃者は、悪意のある入力摂動を導入してネットワークを騙し、潜在的に有害な誤予測を引き起こす。
さらに、これらの攻撃は、敵がターゲットモデル(ホワイトボックス)に完全にアクセスでき、そのようなアクセスが制限されている場合(ブラックボックス設定)にも成功する。
モデルのアンサンブルはそのような攻撃から保護できるが、メンバーの共有脆弱性(攻撃転送可能性)によって脆弱になる可能性がある。
そこで本研究では,深層アンサンブルに対する新しい多様性向上学習手法を提案する。
学習目的に新たな用語を導入することにより、アンサンブルメンバーに対するサリエンシマップの多様性を促進し、攻撃者がすべてのアンサンブルメンバーを一度に標的にしないようにする。
トレーニング中、これはモデルの給与の調整を最小化し、メンバーの脆弱性を共有し、敵へのロバスト性を高めるのに役立ちます。
実験では,中間および高強度のホワイトボックス攻撃に対して,アンサンブル部材間の移動性が低下し,最先端のアンサンブル防御よりも性能が向上した。
さらに,本手法と既存の手法を組み合わせることで,ホワイトボックスおよびブラックボックス攻撃による防御のための最先端のアンサンブルアルゴリズムを上回ることを実証する。
関連論文リスト
- BadCLIP: Dual-Embedding Guided Backdoor Attack on Multimodal Contrastive
Learning [85.2564206440109]
本報告では,防衛後においてもバックドア攻撃が有効であり続けるという現実的なシナリオにおける脅威を明らかにする。
バックドア検出や細調整防御のモデル化に抵抗性のあるemphtoolnsアタックを導入する。
論文 参考訳(メタデータ) (2023-11-20T02:21:49Z) - Understanding and Improving Ensemble Adversarial Defense [4.504026914523449]
我々は、アンサンブルの防御を理解するための新しい誤り理論を開発した。
我々は,対話的グローバル対人訓練(iGAT)という,アンサンブル対人防御を改善する効果的なアプローチを提案する。
iGATは、ホワイトボックスとブラックボックスの両方の攻撃下で、CIFAR10とCIFAR100データセットを使用して評価された最大17%のパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2023-10-27T20:43:29Z) - Improving Adversarial Robustness with Self-Paced Hard-Class Pair
Reweighting [5.084323778393556]
標的外攻撃による敵の訓練は 最も認知されている方法の1つです
自然に不均衡なクラス間のセマンティックな類似性により、これらのハードクラスのペアが互いに仮想的なターゲットになる。
モデル最適化における重み付きハードクラスペアの損失について提案し、ハードクラスからの識別的特徴の学習を促す。
論文 参考訳(メタデータ) (2022-10-26T22:51:36Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Stochastic Variance Reduced Ensemble Adversarial Attack for Boosting the
Adversarial Transferability [20.255708227671573]
ブラックボックスの敵攻撃は、あるモデルから別のモデルに転送することができる。
本研究では,分散縮小アンサンブル攻撃と呼ばれる新しいアンサンブル攻撃法を提案する。
実験結果から,提案手法は既存のアンサンブル攻撃を著しく上回り,対向移動性を向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-11-21T06:33:27Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Adversarial training may be a double-edged sword [50.09831237090801]
深層ネットワークの決定境界における敵対的トレーニングの幾らかの幾何学的結果が、ある種のブラックボックス攻撃のエッジとなることを示す。
特に、敵の訓練がホワイトボックスシナリオのロバスト性を大幅に改善する効果的な方法であることを示すために、ロバストネスゲインと呼ばれる指標を定義するが、より現実的な意思決定ベースのブラックボックス攻撃に対して、そのようなロバストネスゲインを提供することはできない。
論文 参考訳(メタデータ) (2021-07-24T19:09:16Z) - Universal Adversarial Training with Class-Wise Perturbations [78.05383266222285]
敵の訓練は 敵の攻撃を防御するために 最も広く使われる方法です
この作業では、UAPがすべてのクラスを等しく攻撃しないことがわかります。
我々は,対人訓練におけるクラスワイドUAPの利用を提案することで,SOTA UATを改善した。
論文 参考訳(メタデータ) (2021-04-07T09:05:49Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - "What's in the box?!": Deflecting Adversarial Attacks by Randomly
Deploying Adversarially-Disjoint Models [71.91835408379602]
敵の例は長い間、機械学習モデルに対する真の脅威と考えられてきた。
我々は、従来のホワイトボックスやブラックボックスの脅威モデルを超えた、配置ベースの防衛パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-09T20:07:13Z) - Evaluating Ensemble Robustness Against Adversarial Attacks [0.0]
ニューラルネットワークを騙す目的で生成されるわずかな摂動入力である逆例は、モデル間で転送されることが知られている。
この転送可能性の概念は、ブラックボックスの設定でモデルを攻撃する可能性につながるため、重大なセキュリティ上の懸念を引き起こす。
我々は、アンサンブルの構成モデルが効果的に協調して、アンサンブル自体を対象とする対角的例の空間を減らし、グラデーションに基づく尺度を導入する。
論文 参考訳(メタデータ) (2020-05-12T13:20:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。