論文の概要: Unscrambling the Rectification of Adversarial Attacks Transferability
across Computer Networks
- arxiv url: http://arxiv.org/abs/2311.03373v1
- Date: Thu, 26 Oct 2023 22:36:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-12 19:49:36.658214
- Title: Unscrambling the Rectification of Adversarial Attacks Transferability
across Computer Networks
- Title(参考訳): コンピュータネットワークを横断する敵攻撃伝達可能性の修正
- Authors: Ehsan Nowroozi, Samaneh Ghelichkhani, Imran Haider and Ali
Dehghantanha
- Abstract要約: 畳み込みニューラルネットワーク(CNN)モデルは、最先端のパフォーマンスを達成する上で重要な役割を果たす。
CNNは敵の攻撃を受けやすいため、妥協することができる。
本稿では,攻撃の強さを向上し,CNNにおける敵例の伝達可能性を評価するための,新しい包括的手法を提案する。
- 参考スコア(独自算出の注目度): 4.576324217026666
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs) models play a vital role in achieving
state-of-the-art performances in various technological fields. CNNs are not
limited to Natural Language Processing (NLP) or Computer Vision (CV) but also
have substantial applications in other technological domains, particularly in
cybersecurity. The reliability of CNN's models can be compromised because of
their susceptibility to adversarial attacks, which can be generated
effortlessly, easily applied, and transferred in real-world scenarios.
In this paper, we present a novel and comprehensive method to improve the
strength of attacks and assess the transferability of adversarial examples in
CNNs when such strength changes, as well as whether the transferability
property issue exists in computer network applications. In the context of our
study, we initially examined six distinct modes of attack: the Carlini and
Wagner (C&W), Fast Gradient Sign Method (FGSM), Iterative Fast Gradient Sign
Method (I-FGSM), Jacobian-based Saliency Map (JSMA), Limited-memory Broyden
fletcher Goldfarb Shanno (L-BFGS), and Projected Gradient Descent (PGD) attack.
We applied these attack techniques on two popular datasets: the CIC and UNSW
datasets. The outcomes of our experiment demonstrate that an improvement in
transferability occurs in the targeted scenarios for FGSM, JSMA, LBFGS, and
other attacks. Our findings further indicate that the threats to security posed
by adversarial examples, even in computer network applications, necessitate the
development of novel defense mechanisms to enhance the security of DL-based
techniques.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)モデルは、様々な技術分野で最先端のパフォーマンスを達成する上で重要な役割を果たす。
CNNは自然言語処理(NLP)やコンピュータビジョン(CV)に限らず、他の技術分野、特にサイバーセキュリティにも応用されている。
cnnのモデルの信頼性は、現実のシナリオで無益に、容易に適用され、転送される敵の攻撃に対する感受性によって損なわれる可能性がある。
本稿では,cnnにおける攻撃の強度向上と,その強度変化時の攻撃例の移動性評価,およびコンピュータネットワークアプリケーションにおける転送性問題の有無を評価するための,新しい総合的手法を提案する。
本研究の文脈では,まず,carlyni and wagner (c&w), fast gradient sign method (fgsm), iterative fast gradient sign method (i-fgsm), jacobian-based saliency map (jsma), limited-memory broyden fletcher goldfarb shanno (l-bfgs), projected gradient descent (pgd) の6つの異なる攻撃方法を検討した。
これらの攻撃手法をCICとUNSWの2つの一般的なデータセットに適用した。
実験の結果,FGSM,JSMA,LBFGS,その他の攻撃を想定したシナリオにおいて,転送可能性の向上が見られた。
さらに,コンピュータネットワークアプリケーションにおいても,セキュリティに対する脅威は,dlベースの技術の安全性を高めるために,新たな防御機構の開発を必要とすることが示唆された。
関連論文リスト
- Impact of White-Box Adversarial Attacks on Convolutional Neural Networks [0.6138671548064356]
本稿では,畳み込みニューラルネットワーク(CNN)のホワイトボックス攻撃に対する感受性について検討する。
本研究は、敵の脅威に対するCNNの堅牢性に関する知見を提供する。
論文 参考訳(メタデータ) (2024-10-02T21:24:08Z) - A Dual-Tier Adaptive One-Class Classification IDS for Emerging Cyberthreats [3.560574387648533]
2層構造を有する一級分類駆動型IDSシステムを提案する。
第1層は通常の活動と攻撃/脅威を区別し、第2層は検出された攻撃が未知であるかを判定する。
このモデルは、目に見えない攻撃を識別するだけでなく、目に見えない攻撃をクラスタリングすることでそれらを再トレーニングするために使用する。
論文 参考訳(メタデータ) (2024-03-17T12:26:30Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Untargeted White-box Adversarial Attack with Heuristic Defence Methods
in Real-time Deep Learning based Network Intrusion Detection System [0.0]
Adversarial Machine Learning (AML)では、悪意のあるアクターが機械学習(ML)とディープラーニング(DL)モデルを騙して、誤った予測を生成する。
AMLは新たな研究領域であり、敵の攻撃の詳細な研究に欠かせないものとなっている。
我々は,FGSM(Fast Gradient Sign Method),JSMA(Jacobian Saliency Map Attack),PGD(Projected Gradient Descent),Cerini & Wagner(C&W)の4つの強力な攻撃手法を実装した。
論文 参考訳(メタデータ) (2023-10-05T06:32:56Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - Demystifying the Transferability of Adversarial Attacks in Computer
Networks [23.80086861061094]
CNNベースのモデルは様々な敵攻撃を受ける。
いくつかの敵対的な例は、異なる未知のモデルに対して効果がある可能性がある。
本稿では,CNNモデルによる対向移動性に対するロバスト性を評価する。
論文 参考訳(メタデータ) (2021-10-09T07:20:44Z) - Improving Neural Network Robustness through Neighborhood Preserving
Layers [0.751016548830037]
このような層を組み込むことができ、効率的にトレーニングできる新しいニューラルネットワークアーキテクチャを実証する。
我々は、設計したネットワークアーキテクチャが、最先端の勾配に基づく攻撃に対してより堅牢であることを実証的に示す。
論文 参考訳(メタデータ) (2021-01-28T01:26:35Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Transferable Perturbations of Deep Feature Distributions [102.94094966908916]
本研究は,クラスワイドおよび層ワイドな特徴分布のモデリングと利用に基づく新たな敵攻撃を提案する。
我々は、未定義の画像ネットモデルに対して、最先端のブラックボックス転送に基づく攻撃結果を得る。
論文 参考訳(メタデータ) (2020-04-27T00:32:25Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。