論文の概要: Microbial Genetic Algorithm-based Black-box Attack against Interpretable
Deep Learning Systems
- arxiv url: http://arxiv.org/abs/2307.06496v1
- Date: Thu, 13 Jul 2023 00:08:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 16:18:05.540124
- Title: Microbial Genetic Algorithm-based Black-box Attack against Interpretable
Deep Learning Systems
- Title(参考訳): 微生物遺伝的アルゴリズムによる解釈型ディープラーニングシステムに対するブラックボックス攻撃
- Authors: Eldor Abdukhamidov, Mohammed Abuhamad, Simon S. Woo, Eric Chan-Tin,
Tamer Abuhmed
- Abstract要約: ホワイトボックス環境では、解釈可能なディープラーニングシステム(IDLS)が悪意のある操作に対して脆弱であることが示されている。
本稿では,IDLSに対するクエリ効率の高いScoreベースのブラックボックス攻撃QuScoreを提案する。
- 参考スコア(独自算出の注目度): 16.13790238416691
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models are susceptible to adversarial samples in white and
black-box environments. Although previous studies have shown high attack
success rates, coupling DNN models with interpretation models could offer a
sense of security when a human expert is involved, who can identify whether a
given sample is benign or malicious. However, in white-box environments,
interpretable deep learning systems (IDLSes) have been shown to be vulnerable
to malicious manipulations. In black-box settings, as access to the components
of IDLSes is limited, it becomes more challenging for the adversary to fool the
system. In this work, we propose a Query-efficient Score-based black-box attack
against IDLSes, QuScore, which requires no knowledge of the target model and
its coupled interpretation model. QuScore is based on transfer-based and
score-based methods by employing an effective microbial genetic algorithm. Our
method is designed to reduce the number of queries necessary to carry out
successful attacks, resulting in a more efficient process. By continuously
refining the adversarial samples created based on feedback scores from the
IDLS, our approach effectively navigates the search space to identify
perturbations that can fool the system. We evaluate the attack's effectiveness
on four CNN models (Inception, ResNet, VGG, DenseNet) and two interpretation
models (CAM, Grad), using both ImageNet and CIFAR datasets. Our results show
that the proposed approach is query-efficient with a high attack success rate
that can reach between 95% and 100% and transferability with an average success
rate of 69% in the ImageNet and CIFAR datasets. Our attack method generates
adversarial examples with attribution maps that resemble benign samples. We
have also demonstrated that our attack is resilient against various
preprocessing defense techniques and can easily be transferred to different DNN
models.
- Abstract(参考訳): ディープラーニングモデルは、ホワイトボックスとブラックボックス環境の敵対的なサンプルに影響を受けやすい。
これまでの研究では攻撃成功率が高いことが示されているが、dnnモデルを解釈モデルと結合することは、人間の専門家が関与する場合、与えられたサンプルが良質か悪質かを識別できるセキュリティ感をもたらす可能性がある。
しかし、ホワイトボックス環境では、解釈可能なディープラーニングシステム(IDLS)は悪意のある操作に対して脆弱であることが示されている。
ブラックボックス設定では、IDLSのコンポーネントへのアクセスが制限されているため、敵がシステムを騙すことがより困難になる。
本稿では,対象モデルとその結合解釈モデルに関する知識を必要とせず,クエリ効率の高いスコアベースのブラックボックス攻撃であるquscoreを提案する。
QuScoreは、効果的な微生物遺伝アルゴリズムを用いて、転送ベースおよびスコアベースの手法に基づいている。
本手法は,攻撃を成功させるために必要なクエリ数を削減し,より効率的な処理を実現する。
提案手法は,IDLSからのフィードバックスコアに基づいて生成した敵のサンプルを連続的に精製することにより,探索空間を効果的にナビゲートし,システムを騙しかねない摂動を識別する。
Inception, ResNet, VGG, DenseNet)と2つの解釈モデル(CAM, Grad)において、ImageNetとCIFARの両方のデータセットを用いて攻撃の有効性を評価する。
提案手法は,画像NetとCIFARデータセットの平均成功率は69%で,95%から100%まで到達可能な攻撃成功率の高いクエリ効率と転送可能性を示す。
攻撃方法は,良質なサンプルに類似した帰属マップを用いた逆例を生成する。
また,本攻撃は各種前処理防御技術に対して耐性があり,異なるDNNモデルに容易に移行可能であることも実証した。
関連論文リスト
- BruSLeAttack: A Query-Efficient Score-Based Black-Box Sparse Adversarial Attack [22.408968332454062]
モデルクエリに対するスコアベースの応答を単純に観察することで、スパース対逆サンプルを生成するという、独特であまりよく理解されていない問題について検討する。
この問題に対するBruSLeAttackアルゴリズムを開発した。
私たちの作業は、モデル脆弱性の迅速な評価を促進し、デプロイされたシステムの安全性、セキュリティ、信頼性に対する警戒を高めます。
論文 参考訳(メタデータ) (2024-04-08T08:59:26Z) - DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - Instance Attack:An Explanation-based Vulnerability Analysis Framework
Against DNNs for Malware Detection [0.0]
本稿では,インスタンスベースの攻撃の概念を提案する。
我々の方式は解釈可能であり、ブラックボックス環境でも機能する。
提案手法はブラックボックス設定で動作し,その結果をドメイン知識で検証することができる。
論文 参考訳(メタデータ) (2022-09-06T12:41:20Z) - Attackar: Attack of the Evolutionary Adversary [0.0]
本稿では、進化的、スコアベース、ブラックボックス攻撃であるtextitAttackarを紹介する。
アタッカーは、勾配のない最適化問題に使用できる新しい目的関数に基づいている。
以上の結果から,精度とクエリ効率の両面で,Attackarの優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-17T13:57:23Z) - Practical No-box Adversarial Attacks with Training-free Hybrid Image
Transformation [123.33816363589506]
ノンボックス脅威モデルの下では, テキストbftraining-free adversarial perturbationの存在を示す。
低レベルの特徴を持つ高周波成分 (HFC) ドメインは, 主に周波数成分の操作によって画像を攻撃する。
我々の手法は、主流の転送ベースのブラックボックス攻撃と競合する。
論文 参考訳(メタデータ) (2022-03-09T09:51:00Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Black-box Adversarial Sample Generation Based on Differential Evolution [18.82850158275813]
我々は、ディープニューラルネットワーク(DNN)の堅牢性をテストするブラックボックス手法を提案する。
この手法はターゲットDNNの構造や重量に関する知識を一切必要としない。
実験結果から,本手法は逆検体の生成に100%成功し,誤分類を誘発できることが示唆された。
論文 参考訳(メタデータ) (2020-07-30T08:43:45Z) - BERT-ATTACK: Adversarial Attack Against BERT Using BERT [77.82947768158132]
離散データ(テキストなど)に対するアドリアック攻撃は、連続データ(画像など)よりも難しい。
対戦型サンプルを生成するための高品質で効果的な方法である textbfBERT-Attack を提案する。
本手法は、成功率と摂動率の両方において、最先端の攻撃戦略より優れている。
論文 参考訳(メタデータ) (2020-04-21T13:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。