論文の概要: Saliency Diversified Deep Ensemble for Robustness to Adversaries
- arxiv url: http://arxiv.org/abs/2112.03615v1
- Date: Tue, 7 Dec 2021 10:18:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 21:01:55.392083
- Title: Saliency Diversified Deep Ensemble for Robustness to Adversaries
- Title(参考訳): 敵に対するロバスト性のための給与分散深層アンサンブル
- Authors: Alex Bogun, Dimche Kostadinov, Damian Borth
- Abstract要約: 本研究は,深層アンサンブルのための新しい多様性促進学習手法を提案する。
この考え方は、アンサンブルのメンバーが一度にすべてのアンサンブルメンバーを標的にしないよう、サリエンシマップの多様性(SMD)を促進することである。
アンサンブル構成員間の移動性が低下し,最先端のアンサンブル防御よりも性能が向上したことを実証的に示す。
- 参考スコア(独自算出の注目度): 1.9659095632676094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models have shown incredible performance on numerous image
recognition, classification, and reconstruction tasks. Although very appealing
and valuable due to their predictive capabilities, one common threat remains
challenging to resolve. A specifically trained attacker can introduce malicious
input perturbations to fool the network, thus causing potentially harmful
mispredictions. Moreover, these attacks can succeed when the adversary has full
access to the target model (white-box) and even when such access is limited
(black-box setting). The ensemble of models can protect against such attacks
but might be brittle under shared vulnerabilities in its members (attack
transferability). To that end, this work proposes a novel diversity-promoting
learning approach for the deep ensembles. The idea is to promote saliency map
diversity (SMD) on ensemble members to prevent the attacker from targeting all
ensemble members at once by introducing an additional term in our learning
objective. During training, this helps us minimize the alignment between model
saliencies to reduce shared member vulnerabilities and, thus, increase ensemble
robustness to adversaries. We empirically show a reduced transferability
between ensemble members and improved performance compared to the
state-of-the-art ensemble defense against medium and high strength white-box
attacks. In addition, we demonstrate that our approach combined with existing
methods outperforms state-of-the-art ensemble algorithms for defense under
white-box and black-box attacks.
- Abstract(参考訳): ディープラーニングモデルは、多くの画像認識、分類、再構築タスクにおいて素晴らしいパフォーマンスを示している。
予測能力のために非常に魅力的で価値が高いが、一つの共通の脅威は解決が困難なままである。
特定の訓練を受けた攻撃者は、悪意のある入力摂動を導入してネットワークを騙し、潜在的に有害な誤予測を引き起こす。
さらに、これらの攻撃は、敵がターゲットモデル(ホワイトボックス)に完全にアクセスでき、そのようなアクセスが制限されている場合(ブラックボックス設定)にも成功する。
モデルのアンサンブルはそのような攻撃から保護できるが、メンバーの共有脆弱性(攻撃転送可能性)によって脆弱になる可能性がある。
そこで本研究では,深層アンサンブルに対する新しい多様性向上学習手法を提案する。
学習目的に新たな用語を導入することにより、アンサンブルメンバーに対するサリエンシマップの多様性を促進し、攻撃者がすべてのアンサンブルメンバーを一度に標的にしないようにする。
トレーニング中、これはモデルの給与の調整を最小化し、メンバーの脆弱性を共有し、敵へのロバスト性を高めるのに役立ちます。
実験では,中間および高強度のホワイトボックス攻撃に対して,アンサンブル部材間の移動性が低下し,最先端のアンサンブル防御よりも性能が向上した。
さらに,本手法と既存の手法を組み合わせることで,ホワイトボックスおよびブラックボックス攻撃による防御のための最先端のアンサンブルアルゴリズムを上回ることを実証する。
関連論文リスト
- Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - Multi-granular Adversarial Attacks against Black-box Neural Ranking Models [111.58315434849047]
多粒性摂動を取り入れた高品質な逆数例を作成する。
我々は,多粒体攻撃を逐次的意思決定プロセスに変換する。
本手法は,攻撃の有効性と非受容性の両方において,一般的なベースラインを超えている。
論文 参考訳(メタデータ) (2024-04-02T02:08:29Z) - Understanding and Improving Ensemble Adversarial Defense [4.504026914523449]
我々は、アンサンブルの防御を理解するための新しい誤り理論を開発した。
我々は,対話的グローバル対人訓練(iGAT)という,アンサンブル対人防御を改善する効果的なアプローチを提案する。
iGATは、ホワイトボックスとブラックボックスの両方の攻撃下で、CIFAR10とCIFAR100データセットを使用して評価された最大17%のパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2023-10-27T20:43:29Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Stochastic Variance Reduced Ensemble Adversarial Attack for Boosting the
Adversarial Transferability [20.255708227671573]
ブラックボックスの敵攻撃は、あるモデルから別のモデルに転送することができる。
本研究では,分散縮小アンサンブル攻撃と呼ばれる新しいアンサンブル攻撃法を提案する。
実験結果から,提案手法は既存のアンサンブル攻撃を著しく上回り,対向移動性を向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-11-21T06:33:27Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - "What's in the box?!": Deflecting Adversarial Attacks by Randomly
Deploying Adversarially-Disjoint Models [71.91835408379602]
敵の例は長い間、機械学習モデルに対する真の脅威と考えられてきた。
我々は、従来のホワイトボックスやブラックボックスの脅威モデルを超えた、配置ベースの防衛パラダイムを提案する。
論文 参考訳(メタデータ) (2021-02-09T20:07:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。