論文の概要: PARL: Enhancing Diversity of Ensemble Networks to Resist Adversarial
Attacks via Pairwise Adversarially Robust Loss Function
- arxiv url: http://arxiv.org/abs/2112.04948v1
- Date: Thu, 9 Dec 2021 14:26:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 18:07:18.415979
- Title: PARL: Enhancing Diversity of Ensemble Networks to Resist Adversarial
Attacks via Pairwise Adversarially Robust Loss Function
- Title(参考訳): PARL:Pairwise Adversarially Robust Loss Functionによるアンサンブルネットワークの多様性向上による敵攻撃の抑制
- Authors: Manaar Alam, Shubhajit Datta, Debdeep Mukhopadhyay, Arijit Mondal,
Partha Pratim Chakrabarti
- Abstract要約: 敵の攻撃は 転送可能性の原理に 依存する傾向があります
敵攻撃に対するアンサンブル法は、敵の例が複数の分類器を誤解させる可能性が低いことを示す。
最近のアンサンブル法は、より強い敵に弱いか、エンドツーエンドの評価が欠如していることが示されている。
- 参考スコア(独自算出の注目度): 13.417003144007156
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The security of Deep Learning classifiers is a critical field of study
because of the existence of adversarial attacks. Such attacks usually rely on
the principle of transferability, where an adversarial example crafted on a
surrogate classifier tends to mislead the target classifier trained on the same
dataset even if both classifiers have quite different architecture. Ensemble
methods against adversarial attacks demonstrate that an adversarial example is
less likely to mislead multiple classifiers in an ensemble having diverse
decision boundaries. However, recent ensemble methods have either been shown to
be vulnerable to stronger adversaries or shown to lack an end-to-end
evaluation. This paper attempts to develop a new ensemble methodology that
constructs multiple diverse classifiers using a Pairwise Adversarially Robust
Loss (PARL) function during the training procedure. PARL utilizes gradients of
each layer with respect to input in every classifier within the ensemble
simultaneously. The proposed training procedure enables PARL to achieve higher
robustness against black-box transfer attacks compared to previous ensemble
methods without adversely affecting the accuracy of clean examples. We also
evaluate the robustness in the presence of white-box attacks, where adversarial
examples are crafted using parameters of the target classifier. We present
extensive experiments using standard image classification datasets like
CIFAR-10 and CIFAR-100 trained using standard ResNet20 classifier against
state-of-the-art adversarial attacks to demonstrate the robustness of the
proposed ensemble methodology.
- Abstract(参考訳): ディープラーニング分類器のセキュリティは、敵対的攻撃が存在するため、重要な研究分野である。
このような攻撃は通常、転送可能性の原理に依存しており、サロゲート分類器を使った敵の例は、両方の分類器が全く異なるアーキテクチャを持つ場合でも、同じデータセットで訓練されたターゲット分類器を誤解させる傾向がある。
敵攻撃に対するアンサンブル法は、敵の例が多様な決定境界を持つアンサンブルにおいて複数の分類器を誤解させる可能性が低いことを示す。
しかし、最近のアンサンブル手法は、より強い敵に弱いか、エンドツーエンドの評価が欠如していることが示されている。
本稿では,Pairwise Adversarially Robust Loss (PARL) 関数を用いて,多種多様な分類器を構成する新しいアンサンブル手法を提案する。
PARLはアンサンブル内の各分類器の入力に対して各層の勾配を利用する。
提案手法では,従来のアンサンブル法に比べて,クリーンサンプルの精度に悪影響を及ぼすことなく,ブラックボックス転送攻撃に対して高いロバスト性を実現することができる。
また,ホワイトボックス攻撃が存在する場合のロバスト性も評価した。
我々は,CIFAR-10やCIFAR-100のような標準画像分類データセットを用いて,最先端の敵攻撃に対する標準ResNet20分類器を用いて訓練し,アンサンブル手法の堅牢性を示す。
関連論文リスト
- ZeroPur: Succinct Training-Free Adversarial Purification [52.963392510839284]
敵の粛清は、様々な目に見えない敵の攻撃を防御できる防衛計算手法の一種である。
我々は、ZeroPurと呼ばれる、逆画像の浄化を更なる訓練なしに簡単な逆画像浄化法を提案する。
論文 参考訳(メタデータ) (2024-06-05T10:58:15Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Carefully Blending Adversarial Training and Purification Improves Adversarial Robustness [1.2289361708127877]
CARSOは、防御のために考案された適応的なエンドツーエンドのホワイトボックス攻撃から自身を守ることができる。
提案手法はCIFAR-10, CIFAR-100, TinyImageNet-200の最先端技術により改善されている。
論文 参考訳(メタデータ) (2023-05-25T09:04:31Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - Adversarial Contrastive Learning by Permuting Cluster Assignments [0.8862707047517914]
本稿では、クラスタ割り当ての置換を組み込んだ対向的コントラストフレームワークであるSwARoを提案し、代表対向的なサンプルを生成する。
複数のベンチマークデータセットと様々なホワイトボックスやブラックボックス攻撃に対するSwARoの評価を行い、最先端のベースラインに対する一貫した改善を得た。
論文 参考訳(メタデータ) (2022-04-21T17:49:52Z) - Towards Compositional Adversarial Robustness: Generalizing Adversarial
Training to Composite Semantic Perturbations [70.05004034081377]
まず,合成逆数例を生成する新しい手法を提案する。
本手法は, コンポーネントワイド射影勾配勾配を利用して最適攻撃組成を求める。
次に,モデルロバスト性を$ell_p$-ballから複合意味摂動へ拡張するための一般化逆トレーニング(GAT)を提案する。
論文 参考訳(メタデータ) (2022-02-09T02:41:56Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - ATRO: Adversarial Training with a Rejection Option [10.36668157679368]
本稿では, 逆例による性能劣化を軽減するために, 拒否オプション付き分類フレームワークを提案する。
分類器と拒否関数を同時に適用することにより、テストデータポイントの分類に自信が不十分な場合に分類を控えることができる。
論文 参考訳(メタデータ) (2020-10-24T14:05:03Z) - CD-UAP: Class Discriminative Universal Adversarial Perturbation [83.60161052867534]
単一の普遍的対向摂動(UAP)は、予測されたクラスラベルのほとんどを変更するために、すべての自然画像に追加することができる。
本稿では,対象ネットワークを騙して選択したクラスのみを誤分類する単一摂動を生成する,新たなユニバーサルアタック手法を提案する。
論文 参考訳(メタデータ) (2020-10-07T09:26:42Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。