論文の概要: Adversarial Poisoning Attack on Quantum Machine Learning Models
- arxiv url: http://arxiv.org/abs/2411.14412v2
- Date: Fri, 22 Nov 2024 02:41:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-25 12:05:48.394448
- Title: Adversarial Poisoning Attack on Quantum Machine Learning Models
- Title(参考訳): 量子機械学習モデルにおける敵対的ポジショニング攻撃
- Authors: Satwik Kundu, Swaroop Ghosh,
- Abstract要約: 量子無差別データ中毒攻撃(QUID)を導入する。
QUIDはベースラインモデルと比較して、モデル性能の最大92%の精度劣化を達成している。
また、QUIDを最先端のクラシックディフェンスに対してテストし、精度の低下は50ドルを超えました。
- 参考スコア(独自算出の注目度): 2.348041867134616
- License:
- Abstract: With the growing interest in Quantum Machine Learning (QML) and the increasing availability of quantum computers through cloud providers, addressing the potential security risks associated with QML has become an urgent priority. One key concern in the QML domain is the threat of data poisoning attacks in the current quantum cloud setting. Adversarial access to training data could severely compromise the integrity and availability of QML models. Classical data poisoning techniques require significant knowledge and training to generate poisoned data, and lack noise resilience, making them ineffective for QML models in the Noisy Intermediate Scale Quantum (NISQ) era. In this work, we first propose a simple yet effective technique to measure intra-class encoder state similarity (ESS) by analyzing the outputs of encoding circuits. Leveraging this approach, we introduce a quantum indiscriminate data poisoning attack, QUID. Through extensive experiments conducted in both noiseless and noisy environments (e.g., IBM\_Brisbane's noise), across various architectures and datasets, QUID achieves up to $92\%$ accuracy degradation in model performance compared to baseline models and up to $75\%$ accuracy degradation compared to random label-flipping. We also tested QUID against state-of-the-art classical defenses, with accuracy degradation still exceeding $50\%$, demonstrating its effectiveness. This work represents the first attempt to reevaluate data poisoning attacks in the context of QML.
- Abstract(参考訳): 量子機械学習(QML)への関心が高まり、クラウドプロバイダによる量子コンピュータの可用性が向上するにつれ、QMLに関連する潜在的なセキュリティリスクへの対処が最優先事項となっている。
QMLドメインにおける重要な関心事のひとつは、現在の量子クラウド設定におけるデータ中毒攻撃の脅威である。
トレーニングデータへの敵対的アクセスは、QMLモデルの完全性と可用性を著しく損なう可能性がある。
古典的なデータ中毒技術は、有毒なデータを生成するためにかなりの知識と訓練を必要とし、ノイズ耐性を欠いているため、ノイズ中間スケール量子(NISQ)時代のQMLモデルでは効果がない。
本研究ではまず,符号化回路の出力を分析することで,クラス内エンコーダ状態類似度(ESS)を簡易かつ効果的に測定する手法を提案する。
このアプローチを応用して、量子無差別なデータ中毒攻撃(QUID)を導入する。
ノイズレスとノイズの多い環境(例えばIBM\_Brisbaneのノイズ)の両方で実施された広範な実験を通じて、QUIDは、ベースラインモデルと比較してモデルパフォーマンスの最大9,2 %の精度劣化と、ランダムラベルフリップよりも最大7,5 %の精度劣化を達成する。
我々はまた、QUIDを最先端の古典的防御に対してテストし、精度の低下は50\%以上であり、その効果を実証した。
この研究は、QMLの文脈でデータ中毒攻撃を再評価する最初の試みである。
関連論文リスト
- Computable Model-Independent Bounds for Adversarial Quantum Machine Learning [4.857505043608425]
本稿では、量子ベースの逆数攻撃に対するモデルレジリエンスを評価する際に、逆数誤差の近似的下界について紹介する。
最良の場合、実験誤差は推定境界より10%だけ高く、量子モデルの本質的なロバスト性を示す。
論文 参考訳(メタデータ) (2024-11-11T10:56:31Z) - QML-IDS: Quantum Machine Learning Intrusion Detection System [1.2016264781280588]
本稿では量子コンピューティングと古典コンピューティングを組み合わせた新しい侵入検知システムQML-IDSを提案する。
QML-IDSはQuantum Machine Learning(QML)手法を用いてネットワークパターンを分析し、攻撃活動を検出する。
我々は,QML-IDSが攻撃検出に有効であることを示し,バイナリおよびマルチクラス分類タスクで良好に動作することを示す。
論文 参考訳(メタデータ) (2024-10-07T13:07:41Z) - Security Concerns in Quantum Machine Learning as a Service [2.348041867134616]
量子機械学習(Quantum Machine Learning、QML)は、変分量子回路(VQC)を用いて機械学習タスクに取り組むアルゴリズムのカテゴリである。
近年の研究では、限られたトレーニングデータサンプルからQMLモデルを効果的に一般化できることが示されている。
QMLは、古典的および量子コンピューティングリソースの両方を利用するハイブリッドモデルである。
論文 参考訳(メタデータ) (2024-08-18T18:21:24Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Drastic Circuit Depth Reductions with Preserved Adversarial Robustness
by Approximate Encoding for Quantum Machine Learning [0.5181797490530444]
本研究では, 変分, 遺伝的および行列積状態に基づくアルゴリズムを用いて, 符号化画像データを表す量子状態の効率的な作成法を実装した。
その結果、これらの手法は、標準状態準備実装よりも2桁も浅い回路を用いて、QMLに適したレベルにほぼ準備できることが判明した。
論文 参考訳(メタデータ) (2023-09-18T01:49:36Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - Transition Role of Entangled Data in Quantum Machine Learning [51.6526011493678]
エンタングルメントは量子コンピューティングを強化するリソースとして機能する。
最近の進歩は量子力学の学習に対する肯定的な影響を浮き彫りにした。
我々は、絡み合ったデータを用いて量子力学を学習するための量子no-free-lunch(NFL)定理を確立する。
論文 参考訳(メタデータ) (2023-06-06T08:06:43Z) - Exploring the Vulnerabilities of Machine Learning and Quantum Machine
Learning to Adversarial Attacks using a Malware Dataset: A Comparative
Analysis [0.0]
機械学習(ML)と量子機械学習(QML)は、複雑な問題に対処する上で大きな可能性を示している。
敵攻撃に対する感受性は、これらのシステムをセキュリティに敏感なアプリケーションにデプロイする際の懸念を引き起こす。
本稿では,マルウェアデータセットを用いた敵攻撃に対するMLモデルとQNNモデルの脆弱性の比較分析を行う。
論文 参考訳(メタデータ) (2023-05-31T06:31:42Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Problem-Dependent Power of Quantum Neural Networks on Multi-Class
Classification [83.20479832949069]
量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
本稿では,多クラス分類タスクにおけるQCの問題依存力について検討する。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2022-12-29T10:46:40Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。