論文の概要: Evaluating Efficacy of Model Stealing Attacks and Defenses on Quantum
Neural Networks
- arxiv url: http://arxiv.org/abs/2402.11687v1
- Date: Sun, 18 Feb 2024 19:35:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 19:33:32.300353
- Title: Evaluating Efficacy of Model Stealing Attacks and Defenses on Quantum
Neural Networks
- Title(参考訳): 量子ニューラルネットワークにおけるモデル盗み攻撃と防御の効果評価
- Authors: Satwik Kundu, Debarshi Kundu and Swaroop Ghosh
- Abstract要約: 量子機械学習(QML)モデルのクラウドホスティングは、さまざまな脆弱性に公開する。
モデル盗難攻撃は、最大$0.9times$と$0.99times$クローンテスト精度を達成するクローンモデルを生成することができる。
これらの攻撃を防御するために、我々は現在のノイズの多いハードウェアのユニークな特性を活用し、犠牲者モデルの出力を摂動させる。
- 参考スコア(独自算出の注目度): 2.348041867134616
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Cloud hosting of quantum machine learning (QML) models exposes them to a
range of vulnerabilities, the most significant of which is the model stealing
attack. In this study, we assess the efficacy of such attacks in the realm of
quantum computing. We conducted comprehensive experiments on various datasets
with multiple QML model architectures. Our findings revealed that model
stealing attacks can produce clone models achieving up to $0.9\times$ and
$0.99\times$ clone test accuracy when trained using Top-$1$ and Top-$k$ labels,
respectively ($k:$ num\_classes). To defend against these attacks, we leverage
the unique properties of current noisy hardware and perturb the victim model
outputs and hinder the attacker's training process. In particular, we propose:
1) hardware variation-induced perturbation (HVIP) and 2) hardware and
architecture variation-induced perturbation (HAVIP). Although noise and
architectural variability can provide up to $\sim16\%$ output obfuscation, our
comprehensive analysis revealed that models cloned under noisy conditions tend
to be resilient, suffering little to no performance degradation due to such
obfuscations. Despite limited success with our defense techniques, this outcome
has led to an important discovery: QML models trained on noisy hardwares are
naturally resistant to perturbation or obfuscation-based defenses or attacks.
- Abstract(参考訳): 量子機械学習(QML)モデルのクラウドホスティングは、モデルをさまざまな脆弱性に公開する。
本研究では,量子コンピューティングの領域におけるそのような攻撃の有効性を評価する。
複数のQMLモデルアーキテクチャを用いた各種データセットの総合的な実験を行った。
その結果、モデル盗み攻撃は最大$0.9\times$と$0.99\times$のクローンテスト精度を、トップ$$とトップ$k$のラベル(それぞれ$k:$ num\_classes)で訓練すると生成できることが判明した。
これらの攻撃から防御するために、我々は現在の騒がしいハードウェアのユニークな特性を利用し、被害者モデルの出力を摂動させ、攻撃者のトレーニングプロセスを妨げる。
特に,我々は次のように提案する。
1)ハードウェア変動誘発摂動(HVIP)と
2)ハードウェアとアーキテクチャの変化による摂動(HAVIP)。
ノイズとアーキテクチャのばらつきは最大$\sim16\%の出力難読化を実現することができるが, 包括的解析により, ノイズ条件下でクローンされたモデルは耐障害性が高く, 難読化による性能劣化がほとんどないことがわかった。
ノイズの多いハードウェアでトレーニングされたQMLモデルは、摂動や難読化に基づく防御や攻撃に自然に抵抗する。
関連論文リスト
- From Attack to Defense: Insights into Deep Learning Security Measures in Black-Box Settings [1.8006345220416338]
敵のサンプルは深刻な脅威となり、モデルがそのようなアプリケーションの性能を誤解し、損なう可能性がある。
ディープラーニングモデルの堅牢性に対処することは、敵の攻撃を理解し防御するために重要になっている。
我々の研究は、SimBA、HopSkipJump、MGAAttack、境界攻撃などのブラックボックス攻撃、およびプリプロセッサベースの防御機構に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-03T09:40:47Z) - Advancing the Robustness of Large Language Models through Self-Denoised Smoothing [50.54276872204319]
大規模言語モデル(LLM)は大きな成功を収めたが、敵の摂動に対する脆弱性は大きな懸念を引き起こしている。
本稿では,LLMのマルチタスク特性を活用して,まずノイズの入力を識別し,次にこれらの復号化バージョンに基づいて予測を行う。
LLMのロバスト性を高めるために個別のモデルを訓練する必要がある従来のコンピュータビジョンのスムース化技術とは異なり、本手法は効率と柔軟性を著しく向上させる。
論文 参考訳(メタデータ) (2024-04-18T15:47:00Z) - Disarming Steganography Attacks Inside Neural Network Models [4.750077838548593]
本稿では,AIモデル攻撃の解除と再構築に基づくゼロトラスト防止戦略を提案する。
本研究では,Qint8法とK-LRBP法に基づくモデル精度の低下を最小限に抑えながら,100%の防止率を示す。
論文 参考訳(メタデータ) (2023-09-06T15:18:35Z) - Isolation and Induction: Training Robust Deep Neural Networks against
Model Stealing Attacks [51.51023951695014]
既存のモデル盗難防衛は、被害者の後部確率に偽りの摂動を加え、攻撃者を誤解させる。
本稿では,モデルステルス防衛のための新規かつ効果的なトレーニングフレームワークである分離誘導(InI)を提案する。
モデルの精度を損なうモデル予測に摂動を加えるのとは対照的に、我々はモデルを訓練して、盗むクエリに対して非形式的なアウトプットを生成する。
論文 参考訳(メタデータ) (2023-08-02T05:54:01Z) - Exploring the Vulnerabilities of Machine Learning and Quantum Machine
Learning to Adversarial Attacks using a Malware Dataset: A Comparative
Analysis [0.0]
機械学習(ML)と量子機械学習(QML)は、複雑な問題に対処する上で大きな可能性を示している。
敵攻撃に対する感受性は、これらのシステムをセキュリティに敏感なアプリケーションにデプロイする際の懸念を引き起こす。
本稿では,マルウェアデータセットを用いた敵攻撃に対するMLモデルとQNNモデルの脆弱性の比較分析を行う。
論文 参考訳(メタデータ) (2023-05-31T06:31:42Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Publishing Efficient On-device Models Increases Adversarial
Vulnerability [58.6975494957865]
本稿では,大規模モデルのオンデバイス版を公開する際のセキュリティ上の考慮事項について検討する。
まず、敵がデバイス上のモデルを悪用し、大きなモデルを攻撃しやすくすることを示す。
次に、フルスケールと効率的なモデルとの類似性が増加するにつれて、脆弱性が増加することを示す。
論文 参考訳(メタデータ) (2022-12-28T05:05:58Z) - Defending Variational Autoencoders from Adversarial Attacks with MCMC [74.36233246536459]
変分オートエンコーダ(VAE)は、様々な領域で使用される深部生成モデルである。
以前の研究が示すように、視覚的にわずかに修正された入力に対する予期せぬ潜在表現と再構成を生成するために、VAEを簡単に騙すことができる。
本稿では, 敵攻撃構築のための目的関数について検討し, モデルのロバスト性を評価する指標を提案し, 解決策を提案する。
論文 参考訳(メタデータ) (2022-03-18T13:25:18Z) - Qu-ANTI-zation: Exploiting Quantization Artifacts for Achieving
Adversarial Outcomes [5.865029600972316]
量子化(quantization)は、ニューラルネットワークのパラメータ表現を浮動小数点数から低精度の数値に変換する技術である。
逆量子化結果を実装するための新しいトレーニングフレームワークを提案する。
1つの妥協されたモデルが複数の量子化スキームを破ることを示す。
論文 参考訳(メタデータ) (2021-10-26T10:09:49Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - RAB: Provable Robustness Against Backdoor Attacks [20.702977915926787]
我々は、一般的な脅威モデル、特にバックドアアタックに対して、機械学習モデルの堅牢性を証明することに重点を置いている。
トレーニングモデルをスムースにし,バックドア攻撃に対する堅牢性を証明するための,最初の堅牢なトレーニングプロセスであるRABを提案する。
我々は、さまざまな機械学習(ML)モデルに対する包括的な実験を行い、バックドア攻撃に対する信頼性の高い堅牢性を示す最初のベンチマークを提供する。
論文 参考訳(メタデータ) (2020-03-19T17:05:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。