論文の概要: Quantum Adversarial Learning for Kernel Methods
- arxiv url: http://arxiv.org/abs/2404.05824v1
- Date: Mon, 8 Apr 2024 19:23:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-10 18:38:40.011815
- Title: Quantum Adversarial Learning for Kernel Methods
- Title(参考訳): カーネル法における量子逆学習
- Authors: Giuseppe Montalbano, Leonardo Banchi,
- Abstract要約: 量子カーネル法とサポートベクトルマシンに基づくハイブリッド量子分類器は、敵攻撃に対して脆弱であることを示す。
データ拡張に基づく単純な防御戦略は、いくつかの巧妙な摂動によって、新たな攻撃に対して分類器を堅牢にすることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show that hybrid quantum classifiers based on quantum kernel methods and support vector machines are vulnerable against adversarial attacks, namely small engineered perturbations of the input data can deceive the classifier into predicting the wrong result. Nonetheless, we also show that simple defence strategies based on data augmentation with a few crafted perturbations can make the classifier robust against new attacks. Our results find applications in security-critical learning problems and in mitigating the effect of some forms of quantum noise, since the attacker can also be understood as part of the surrounding environment.
- Abstract(参考訳): 量子カーネル法およびサポートベクトルマシンに基づくハイブリッド量子分類器は、敵攻撃に対して脆弱であることを示す。
それにもかかわらず、データ拡張に基づく単純な防御戦略が、いくつかの手作りの摂動によって、新たな攻撃に対して、分類器を堅牢にすることができることも示している。
この結果から,セキュリティクリティカルな学習問題や,攻撃者が周囲の環境の一部として理解できるため,ある種の量子ノイズの影響を軽減できる可能性が示唆された。
関連論文リスト
- Adversarial Robustness Guarantees for Quantum Classifiers [0.4934360430803066]
本稿では,QMLアルゴリズムの量子特性が,このような攻撃に対する基本的保護を導出できることを示す。
我々は、この保護の量子源を特定するために、多体物理学のツールを活用している。
論文 参考訳(メタデータ) (2024-05-16T18:00:01Z) - Universal adversarial perturbations for multiple classification tasks
with quantum classifiers [0.0]
量子敵対機械学習は、敵対的摂動に対する量子学習システムの脆弱性を研究する。
本稿では、不均一な分類タスクの文脈における量子普遍摂動について考察する。
2つの異なる分類タスクにおいて、ほぼ最先端の精度を達成する量子分類器は、慎重に作られた1つの普遍摂動によって決定的に欺くことができる。
論文 参考訳(メタデータ) (2023-06-21T02:02:41Z) - Enhancing Quantum Adversarial Robustness by Randomized Encodings [10.059889429655582]
本稿では,正規データサンプルをランダムに符号化することにより,量子学習システムを敵攻撃から保護する手法を提案する。
グローバルおよび局所ランダムなユニタリエンコーダの両方が指数関数的に勾配を消失させることを示す。
ランダムなブラックボックス量子誤り訂正エンコーダは、量子分類器を局所的な逆雑音から保護できることを示す。
論文 参考訳(メタデータ) (2022-12-05T19:00:08Z) - Certified Robustness of Quantum Classifiers against Adversarial Examples
through Quantum Noise [68.1992787416233]
量子ランダムな回転雑音を加えることで、敵攻撃に対する量子分類器のロバスト性を向上できることを示す。
我々は、量子分類器が敵の例に対して防御できるように、証明された堅牢性を導出する。
論文 参考訳(メタデータ) (2022-11-02T05:17:04Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - Quantum noise protects quantum classifiers against adversaries [120.08771960032033]
量子情報処理におけるノイズは、特に短期的な量子技術において、破壊的で避け難い特徴と見なされることが多い。
量子回路の非偏極雑音を利用して分類を行うことにより、敵に縛られるロバスト性を導出できることを示す。
これは、最も一般的な敵に対して使用できる最初の量子プロトコルである。
論文 参考訳(メタデータ) (2020-03-20T17:56:14Z) - Quantum Adversarial Machine Learning [0.0]
適応機械学習は、敵の設定における機械学習アプローチの脆弱性の研究に焦点を当てた新興分野である。
本稿では,量子機械学習の文脈における様々な逆シナリオについて考察する。
ほぼ最先端の精度を達成する量子分類器は、敵の例によって決定的に欺くことができる。
論文 参考訳(メタデータ) (2019-12-31T19:00:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。