論文の概要: Adversarial Robustness Guarantees for Quantum Classifiers
- arxiv url: http://arxiv.org/abs/2405.10360v1
- Date: Thu, 16 May 2024 18:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-20 17:42:52.342723
- Title: Adversarial Robustness Guarantees for Quantum Classifiers
- Title(参考訳): 量子分類器の逆ロバスト性保証
- Authors: Neil Dowling, Maxwell T. West, Angus Southwell, Azar C. Nakhl, Martin Sevior, Muhammad Usman, Kavan Modi,
- Abstract要約: 本稿では,QMLアルゴリズムの量子特性が,このような攻撃に対する基本的保護を導出できることを示す。
我々は、この保護の量子源を特定するために、多体物理学のツールを活用している。
- 参考スコア(独自算出の注目度): 0.4934360430803066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite their ever more widespread deployment throughout society, machine learning algorithms remain critically vulnerable to being spoofed by subtle adversarial tampering with their input data. The prospect of near-term quantum computers being capable of running {quantum machine learning} (QML) algorithms has therefore generated intense interest in their adversarial vulnerability. Here we show that quantum properties of QML algorithms can confer fundamental protections against such attacks, in certain scenarios guaranteeing robustness against classically-armed adversaries. We leverage tools from many-body physics to identify the quantum sources of this protection. Our results offer a theoretical underpinning of recent evidence which suggest quantum advantages in the search for adversarial robustness. In particular, we prove that quantum classifiers are: (i) protected against weak perturbations of data drawn from the trained distribution, (ii) protected against local attacks if they are insufficiently scrambling, and (iii) protected against universal adversarial attacks if they are sufficiently quantum chaotic. Our analytic results are supported by numerical evidence demonstrating the applicability of our theorems and the resulting robustness of a quantum classifier in practice. This line of inquiry constitutes a concrete pathway to advantage in QML, orthogonal to the usually sought improvements in model speed or accuracy.
- Abstract(参考訳): 社会全体に広く展開されているにもかかわらず、機械学習のアルゴリズムは、入力データによる微妙な敵の改ざんによって偽装されることに対して、致命的な脆弱さを保っている。
量子機械学習(QML)アルゴリズムを動作させることが可能な短期量子コンピュータの見通しは、敵の脆弱性への強い関心を生んでいる。
ここでは、QMLアルゴリズムの量子特性が、古典的な武器を持つ敵に対する堅牢性を保証する特定のシナリオにおいて、このような攻撃に対する基本的な保護を導出できることを示す。
我々は、この保護の量子源を特定するために、多体物理学のツールを活用している。
この結果は, 敵の強靭性探索における量子的優位性を示唆する最近の証拠を理論的に裏付けるものである。
特に、量子分類器は次のようになる。
一 訓練した配電所から引き出されたデータの弱い摂動から保護すること。
(二 現地の攻撃が不十分な場合に防ぐこと。)
(三) 量子カオスが十分であれば、普遍的敵攻撃から保護する。
我々の分析結果は、我々の定理の適用可能性と、実際に量子分類器の堅牢性を示す数値的な証拠によって裏付けられている。
この調査の行はQMLの利点を活かす具体的な経路を構成しており、モデル速度や精度が通常求める改善に直交する。
関連論文リスト
- Unveiling Hidden Vulnerabilities in Quantum Systems by Expanding Attack Vectors through Heisenberg's Uncertainty Principle [0.0]
本研究は量子鍵分布(QKD)プロトコルにおける新たな脆弱性を明らかにする。
新たに同定された脆弱性は、ベル不等式(BIs)と隠れ変数理論(HVTs)の間の複雑な相互作用から生じる。
論文 参考訳(メタデータ) (2024-09-27T06:18:36Z) - The curse of random quantum data [62.24825255497622]
量子データのランドスケープにおける量子機械学習の性能を定量化する。
量子機械学習におけるトレーニング効率と一般化能力は、量子ビットの増加に伴い指数関数的に抑制される。
この結果は量子カーネル法と量子ニューラルネットワークの広帯域限界の両方に適用できる。
論文 参考訳(メタデータ) (2024-08-19T12:18:07Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Enhancing Quantum Adversarial Robustness by Randomized Encodings [10.059889429655582]
本稿では,正規データサンプルをランダムに符号化することにより,量子学習システムを敵攻撃から保護する手法を提案する。
グローバルおよび局所ランダムなユニタリエンコーダの両方が指数関数的に勾配を消失させることを示す。
ランダムなブラックボックス量子誤り訂正エンコーダは、量子分類器を局所的な逆雑音から保護できることを示す。
論文 参考訳(メタデータ) (2022-12-05T19:00:08Z) - Certified Robustness of Quantum Classifiers against Adversarial Examples
through Quantum Noise [68.1992787416233]
量子ランダムな回転雑音を加えることで、敵攻撃に対する量子分類器のロバスト性を向上できることを示す。
我々は、量子分類器が敵の例に対して防御できるように、証明された堅牢性を導出する。
論文 参考訳(メタデータ) (2022-11-02T05:17:04Z) - Experimental quantum adversarial learning with programmable
superconducting qubits [15.24718195264974]
プログラム可能な超伝導量子ビットを用いた量子対数学習の実験実験を行った。
本研究は,量子学習システムにおいて,敵対的シナリオ下での重大な脆弱性の側面を実験的に明らかにした。
論文 参考訳(メタデータ) (2022-04-04T18:00:00Z) - Circuit Symmetry Verification Mitigates Quantum-Domain Impairments [69.33243249411113]
本稿では,量子状態の知識を必要とせず,量子回路の可換性を検証する回路指向対称性検証を提案する。
特に、従来の量子領域形式を回路指向安定化器に一般化するフーリエ時間安定化器(STS)手法を提案する。
論文 参考訳(メタデータ) (2021-12-27T21:15:35Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - Optimal Provable Robustness of Quantum Classification via Quantum
Hypothesis Testing [14.684867444153625]
量子機械学習モデルには、従来のモデルに比べてスピードアップと予測精度が向上する可能性がある。
これらの量子アルゴリズムは、古典的なアルゴリズムと同様に、入力摂動に弱いことが示されている。
これらは、ノイズの多い実装か、最悪のタイプのノイズとして、敵攻撃から生じる可能性がある。
論文 参考訳(メタデータ) (2020-09-21T17:55:28Z) - Quantum noise protects quantum classifiers against adversaries [120.08771960032033]
量子情報処理におけるノイズは、特に短期的な量子技術において、破壊的で避け難い特徴と見なされることが多い。
量子回路の非偏極雑音を利用して分類を行うことにより、敵に縛られるロバスト性を導出できることを示す。
これは、最も一般的な敵に対して使用できる最初の量子プロトコルである。
論文 参考訳(メタデータ) (2020-03-20T17:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。