論文の概要: Demystifying the Transferability of Adversarial Attacks in Computer
Networks
- arxiv url: http://arxiv.org/abs/2110.04488v1
- Date: Sat, 9 Oct 2021 07:20:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-17 02:26:04.588936
- Title: Demystifying the Transferability of Adversarial Attacks in Computer
Networks
- Title(参考訳): コンピュータネットワークにおける敵攻撃の転送可能性
- Authors: Ehsan Nowroozi, Mauro Conti, Yassine Mekdad, Mohammad Hajian
Berenjestanaki, Abdeslam EL Fergougui
- Abstract要約: CNNベースのモデルは様々な敵攻撃を受ける。
いくつかの敵対的な例は、異なる未知のモデルに対して効果がある可能性がある。
本稿では,CNNモデルによる対向移動性に対するロバスト性を評価する。
- 参考スコア(独自算出の注目度): 23.80086861061094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Convolutional Neural Networks (CNN) models are one of the most popular
networks in deep learning. With their large fields of application in different
areas, they are extensively used in both academia and industry. CNN-based
models include several exciting implementations such as early breast cancer
detection or detecting developmental delays in children (e.g., autism, speech
disorders, etc.). However, previous studies demonstrate that these models are
subject to various adversarial attacks. Interestingly, some adversarial
examples could potentially still be effective against different unknown models.
This particular property is known as adversarial transferability, and prior
works slightly analyzed this characteristic in a very limited application
domain. In this paper, we aim to demystify the transferability threats in
computer networks by studying the possibility of transferring adversarial
examples. In particular, we provide the first comprehensive study which
assesses the robustness of CNN-based models for computer networks against
adversarial transferability. In our experiments, we consider five different
attacks: (1) the Iterative Fast Gradient Method (I-FGSM), (2) the
Jacobian-based Saliency Map attack (JSMA), (3) the L-BFGS attack, (4) the
Projected Gradient Descent attack (PGD), and (5) the DeepFool attack. These
attacks are performed against two well-known datasets: the N-BaIoT dataset and
the Domain Generating Algorithms (DGA) dataset. Our results show that the
transferability happens in specific use cases where the adversary can easily
compromise the victim's network with very few knowledge of the targeted model.
- Abstract(参考訳): deep convolutional neural networks (cnn)モデルは、ディープラーニングで最も人気のあるネットワークの1つである。
様々な分野の応用分野において、それらは学界と産業の両方で広く使われている。
CNNベースのモデルには、早期乳癌の検出や発達遅延の検出(自閉症、言語障害など)など、いくつかのエキサイティングな実装が含まれている。
しかし、以前の研究では、これらのモデルが様々な敵攻撃の対象であることが示されている。
興味深いことに、いくつかの敵対的な例は、異なる未知のモデルに対して効果がある可能性がある。
この特性は逆移動可能性(adversarial transferability)と呼ばれ、先行研究はこの特性を非常に限られたアプリケーション領域でわずかに分析した。
本稿では,コンピュータネットワークにおける転送可能性の脅しを,敵の事例を転送する可能性について検討することを目的とする。
特に,コンピュータネットワークにおけるcnnベースのモデルのロバスト性を評価するための包括的研究を初めて行った。
実験では,(1)反復高速勾配法(i-fgsm),(2)ジャコビアン型高度マップ攻撃(jsma),(3)l-bfgs攻撃,(4)投影勾配降下攻撃(pgd),(5)ディープフード攻撃の5つの攻撃を検討した。
これらの攻撃は、n-baiotデータセットとドメイン生成アルゴリズム(dga)データセットの2つのよく知られたデータセットに対して実行される。
本研究の結果から, 対象モデルの知識がほとんどなく, 被害者のネットワークに容易に侵入できる特定のユースケースにおいて, 転送性が生じることが示唆された。
関連論文リスト
- Unscrambling the Rectification of Adversarial Attacks Transferability
across Computer Networks [4.576324217026666]
畳み込みニューラルネットワーク(CNN)モデルは、最先端のパフォーマンスを達成する上で重要な役割を果たす。
CNNは敵の攻撃を受けやすいため、妥協することができる。
本稿では,攻撃の強さを向上し,CNNにおける敵例の伝達可能性を評価するための,新しい包括的手法を提案する。
論文 参考訳(メタデータ) (2023-10-26T22:36:24Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Common Knowledge Learning for Generating Transferable Adversarial
Examples [60.1287733223249]
本稿では,代用(ソース)モデルにより敵のサンプルを生成するブラックボックス攻撃の重要タイプに着目した。
既存の手法では、ソースモデルとターゲットモデルが異なるタイプのDNNアーキテクチャのものである場合、不満足な逆転が生じる傾向にある。
本稿では,より優れたネットワーク重みを学習し,敵対的な例を生成するための共通知識学習(CKL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-01T09:07:12Z) - Boosting Adversarial Transferability via Fusing Logits of Top-1
Decomposed Feature [36.78292952798531]
本稿では,Singular Value Decomposition(SVD)に基づく特徴レベル攻撃法を提案する。
提案手法は,中間層特徴量より大きい特異値に付随する固有ベクトルがより優れた一般化と注意特性を示すという発見に着想を得たものである。
論文 参考訳(メタデータ) (2023-05-02T12:27:44Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Transfer Attacks Revisited: A Large-Scale Empirical Study in Real
Computer Vision Settings [64.37621685052571]
我々は,主要なクラウドベースのMLプラットフォームに対する転送攻撃について,最初の系統的実証的研究を行った。
この研究は、既存のものと矛盾しない多くの興味深い発見につながっている。
この作業は、一般的なMLプラットフォームの脆弱性に光を当て、いくつかの有望な研究方向を指し示している、と私たちは信じています。
論文 参考訳(メタデータ) (2022-04-07T12:16:24Z) - NetSentry: A Deep Learning Approach to Detecting Incipient Large-scale
Network Attacks [9.194664029847019]
ネットワーク侵入検出(NID)における機械学習の原理的利用法を示す。
我々は、Bi-ALSTMをベースとした、おそらく最初のNIDSであるNetSentryを提案する。
XSSやWeb bruteforceなどの攻撃検出率を最大3倍に向上させるとともに、最先端技術よりもF1スコアが33%以上上昇することが実証された。
論文 参考訳(メタデータ) (2022-02-20T17:41:02Z) - Unveiling the potential of Graph Neural Networks for robust Intrusion
Detection [2.21481607673149]
本稿では,グラフとして構造化された攻撃の流れパターンを学習するための新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のモデルは従来の実験と同等の精度を維持することができる一方、最先端のML技術は敵攻撃下で50%の精度(F1スコア)を低下させる。
論文 参考訳(メタデータ) (2021-07-30T16:56:39Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。