論文の概要: Exploring the Vulnerabilities of Machine Learning and Quantum Machine
Learning to Adversarial Attacks using a Malware Dataset: A Comparative
Analysis
- arxiv url: http://arxiv.org/abs/2305.19593v1
- Date: Wed, 31 May 2023 06:31:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 18:08:35.801044
- Title: Exploring the Vulnerabilities of Machine Learning and Quantum Machine
Learning to Adversarial Attacks using a Malware Dataset: A Comparative
Analysis
- Title(参考訳): マルウェアデータセットを用いた敵攻撃に対する機械学習と量子機械学習の脆弱性探索 : 比較分析
- Authors: Mst Shapna Akter, Hossain Shahriar, Iysa Iqbal, MD Hossain, M.A.
Karim, Victor Clincy, Razvan Voicu
- Abstract要約: 機械学習(ML)と量子機械学習(QML)は、複雑な問題に対処する上で大きな可能性を示している。
敵攻撃に対する感受性は、これらのシステムをセキュリティに敏感なアプリケーションにデプロイする際の懸念を引き起こす。
本稿では,マルウェアデータセットを用いた敵攻撃に対するMLモデルとQNNモデルの脆弱性の比較分析を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The burgeoning fields of machine learning (ML) and quantum machine learning
(QML) have shown remarkable potential in tackling complex problems across
various domains. However, their susceptibility to adversarial attacks raises
concerns when deploying these systems in security sensitive applications. In
this study, we present a comparative analysis of the vulnerability of ML and
QML models, specifically conventional neural networks (NN) and quantum neural
networks (QNN), to adversarial attacks using a malware dataset. We utilize a
software supply chain attack dataset known as ClaMP and develop two distinct
models for QNN and NN, employing Pennylane for quantum implementations and
TensorFlow and Keras for traditional implementations. Our methodology involves
crafting adversarial samples by introducing random noise to a small portion of
the dataset and evaluating the impact on the models performance using accuracy,
precision, recall, and F1 score metrics. Based on our observations, both ML and
QML models exhibit vulnerability to adversarial attacks. While the QNNs
accuracy decreases more significantly compared to the NN after the attack, it
demonstrates better performance in terms of precision and recall, indicating
higher resilience in detecting true positives under adversarial conditions. We
also find that adversarial samples crafted for one model type can impair the
performance of the other, highlighting the need for robust defense mechanisms.
Our study serves as a foundation for future research focused on enhancing the
security and resilience of ML and QML models, particularly QNN, given its
recent advancements. A more extensive range of experiments will be conducted to
better understand the performance and robustness of both models in the face of
adversarial attacks.
- Abstract(参考訳): 機械学習(ML)と量子機械学習(QML)の急成長する分野は、様々な領域にまたがる複雑な問題に取り組む上で、顕著な可能性を示している。
しかし、敵攻撃に対する感受性は、これらのシステムをセキュリティに敏感なアプリケーションにデプロイする際の懸念を引き起こす。
本研究では,MLモデルとQMLモデル,特に従来のニューラルネットワーク(NN)と量子ニューラルネットワーク(QNN)の脆弱性を,マルウェアデータセットを用いた敵攻撃に対して比較解析する。
ClaMPとして知られるソフトウェアサプライチェーンアタックデータセットを使用し、量子実装にPennylane、従来の実装にTensorFlowとKerasを使用して、QNNとNNの2つの異なるモデルを開発した。
提案手法は,データセットのごく一部にランダムノイズを導入し,精度,精度,リコール,f1スコアの指標を用いてモデル性能への影響を評価することで,逆のサンプルを作成する。
我々の観察から,MLモデルとQMLモデルの両方が敵攻撃に対する脆弱性を示す。
QNNsの精度は攻撃後のNNと比較して著しく低下するが、精度とリコールの点で優れた性能を示し、敵の条件下で真の正の検出において高いレジリエンスを示す。
また,一方のモデルに対して作成した対向型サンプルは他方の性能を損なう可能性があり,ロバストな防御機構の必要性も浮き彫りにしている。
我々の研究は、MLおよびQMLモデルのセキュリティとレジリエンス、特に最近の進歩を踏まえたQNNの強化に焦点を当てた将来の研究の基盤となる。
敵攻撃に直面した両モデルの性能と堅牢性をよりよく理解するために、より広範な実験が実施される。
関連論文リスト
- Exploring the Robustness and Transferability of Patch-Based Adversarial Attacks in Quantized Neural Networks [3.962831477787584]
量子ニューラルネットワーク(QNN)は、リソース制約のあるプラットフォームへのディープラーニングモデルの効率的なデプロイにますます利用されている。
量子化はモデルのサイズと計算要求を減少させるが、その逆の堅牢性への影響は依然として不十分である。
局所的で視認性の高い摂動を特徴とするパッチベースの攻撃は、その伝達性とレジリエンスのために重大なセキュリティリスクを生じさせる。
論文 参考訳(メタデータ) (2024-11-22T07:05:35Z) - Adversarial Poisoning Attack on Quantum Machine Learning Models [2.348041867134616]
量子無差別データ中毒攻撃(QUID)を導入する。
QUIDはベースラインモデルと比較して、モデル性能の最大92%の精度劣化を達成している。
また、QUIDを最先端のクラシックディフェンスに対してテストし、精度の低下は50ドルを超えました。
論文 参考訳(メタデータ) (2024-11-21T18:46:45Z) - Computable Model-Independent Bounds for Adversarial Quantum Machine Learning [4.857505043608425]
本稿では、量子ベースの逆数攻撃に対するモデルレジリエンスを評価する際に、逆数誤差の近似的下界について紹介する。
最良の場合、実験誤差は推定境界より10%だけ高く、量子モデルの本質的なロバスト性を示す。
論文 参考訳(メタデータ) (2024-11-11T10:56:31Z) - Evaluation of machine learning architectures on the quantification of
epistemic and aleatoric uncertainties in complex dynamical systems [0.0]
不確実量化(英: Uncertainty Quantification、UQ)は、モデル誤差の自己評価値である。
ガウス過程とファミリーUQ強化ニューラルネットワークの両方を含む機械学習技術について検討する。
検証データ上の正規化残差の分布と推定不確かさの分布の2つの指標を用いて,UQ精度(モデル精度とは異なる)を評価する。
論文 参考訳(メタデータ) (2023-06-27T02:35:25Z) - Software Supply Chain Vulnerabilities Detection in Source Code:
Performance Comparison between Traditional and Quantum Machine Learning
Algorithms [9.82923372621617]
SSC攻撃は、下流の顧客をターゲットにしたソフトウェア製品の脆弱性につながる。
本稿では、量子ニューラルネットワーク(QNN)と従来のニューラルネットワーク(NN)の比較分析を行い、ClaMPとして知られるソフトウェアサプライチェーンアタックデータセットを用いた。
我々のゴールは、QNNとNNのパフォーマンスを区別し、実験を行うことであり、従来の量子にPennylaneとKerasをそれぞれ利用して、QNNとNNの2つの異なるモデルを開発することである。
論文 参考訳(メタデータ) (2023-05-31T06:06:28Z) - Problem-Dependent Power of Quantum Neural Networks on Multi-Class
Classification [83.20479832949069]
量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
本稿では,多クラス分類タスクにおけるQCの問題依存力について検討する。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2022-12-29T10:46:40Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - The dilemma of quantum neural networks [63.82713636522488]
量子ニューラルネットワーク(QNN)は、古典的な学習モデルに対して何の恩恵も与えないことを示す。
QNNは、現実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされている。
これらの結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。
論文 参考訳(メタデータ) (2021-06-09T10:41:47Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。