論文の概要: Universal adversarial perturbations for multiple classification tasks
with quantum classifiers
- arxiv url: http://arxiv.org/abs/2306.11974v3
- Date: Wed, 25 Oct 2023 09:09:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 20:21:38.422483
- Title: Universal adversarial perturbations for multiple classification tasks
with quantum classifiers
- Title(参考訳): 量子分類器を用いた複数分類タスクに対する普遍的逆摂動
- Authors: Yun-Zhong Qiu
- Abstract要約: 量子敵対機械学習は、敵対的摂動に対する量子学習システムの脆弱性を研究する。
本稿では、不均一な分類タスクの文脈における量子普遍摂動について考察する。
2つの異なる分類タスクにおいて、ほぼ最先端の精度を達成する量子分類器は、慎重に作られた1つの普遍摂動によって決定的に欺くことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum adversarial machine learning is an emerging field that studies the
vulnerability of quantum learning systems against adversarial perturbations and
develops possible defense strategies. Quantum universal adversarial
perturbations are small perturbations, which can make different input samples
into adversarial examples that may deceive a given quantum classifier. This is
a field that was rarely looked into but worthwhile investigating because
universal perturbations might simplify malicious attacks to a large extent,
causing unexpected devastation to quantum machine learning models. In this
paper, we take a step forward and explore the quantum universal perturbations
in the context of heterogeneous classification tasks. In particular, we find
that quantum classifiers that achieve almost state-of-the-art accuracy on two
different classification tasks can be both conclusively deceived by one
carefully-crafted universal perturbation. This result is explicitly
demonstrated with well-designed quantum continual learning models with elastic
weight consolidation method to avoid catastrophic forgetting, as well as
real-life heterogeneous datasets from hand-written digits and medical MRI
images. Our results provide a simple and efficient way to generate universal
perturbations on heterogeneous classification tasks and thus would provide
valuable guidance for future quantum learning technologies.
- Abstract(参考訳): 量子敵対機械学習は、量子学習システムの脆弱性を敵の摂動に対して研究し、防御戦略を開発する新興分野である。
量子普遍的逆転摂動は小さな摂動であり、異なる入力サンプルを与えられた量子分類器を欺く可能性のある逆転例にすることができる。
なぜなら、普遍的な摂動は悪意のある攻撃を大いに単純化し、量子機械学習モデルに予期せぬ破壊をもたらす可能性があるからだ。
本稿では,不均質な分類タスクの文脈において,量子普遍摂動を探求する。
特に、2つの異なる分類タスクでほぼ最先端の精度を達成する量子分類器は、2つの注意深く作られた普遍的な摂動によって決定的に欺くことができる。
この結果は、破滅的な忘れ込みを避けるために、弾性重み付け法を用いたよく設計された量子連続学習モデルと、手書きの数字と医療MRI画像からの実生活における異種データセットで明確に示されている。
この結果から,不均一な分類課題に対する普遍的摂動を簡便かつ効率的に生成し,将来の量子学習技術に有用なガイダンスを提供することができた。
関連論文リスト
- Quantum algorithms: A survey of applications and end-to-end complexities [90.05272647148196]
期待されている量子コンピュータの応用は、科学と産業にまたがる。
本稿では,量子アルゴリズムの応用分野について検討する。
私たちは、各領域における課題と機会を"エンドツーエンド"な方法で概説します。
論文 参考訳(メタデータ) (2023-10-04T17:53:55Z) - Quantum machine learning for image classification [62.997667081978825]
我々のハイブリッド量子アプローチの1つは、MNISTデータセットで99%以上の顕著な精度を示す。
要約して,本研究は,量子機械学習技術を用いた画像認識と分類の改善に関する継続的な研究に寄与する。
論文 参考訳(メタデータ) (2023-04-18T18:23:20Z) - Enhancing Quantum Adversarial Robustness by Randomized Encodings [10.059889429655582]
本稿では,正規データサンプルをランダムに符号化することにより,量子学習システムを敵攻撃から保護する手法を提案する。
グローバルおよび局所ランダムなユニタリエンコーダの両方が指数関数的に勾配を消失させることを示す。
ランダムなブラックボックス量子誤り訂正エンコーダは、量子分類器を局所的な逆雑音から保護できることを示す。
論文 参考訳(メタデータ) (2022-12-05T19:00:08Z) - Certified Robustness of Quantum Classifiers against Adversarial Examples
through Quantum Noise [68.1992787416233]
量子ランダムな回転雑音を加えることで、敵攻撃に対する量子分類器のロバスト性を向上できることを示す。
我々は、量子分類器が敵の例に対して防御できるように、証明された堅牢性を導出する。
論文 参考訳(メタデータ) (2022-11-02T05:17:04Z) - Noisy Quantum Kernel Machines [58.09028887465797]
量子学習マシンの新たなクラスは、量子カーネルのパラダイムに基づくものである。
消散と脱コヒーレンスがパフォーマンスに与える影響について検討する。
量子カーネルマシンでは,デコヒーレンスや散逸を暗黙の正規化とみなすことができる。
論文 参考訳(メタデータ) (2022-04-26T09:52:02Z) - Experimental quantum adversarial learning with programmable
superconducting qubits [15.24718195264974]
プログラム可能な超伝導量子ビットを用いた量子対数学習の実験実験を行った。
本研究は,量子学習システムにおいて,敵対的シナリオ下での重大な脆弱性の側面を実験的に明らかにした。
論文 参考訳(メタデータ) (2022-04-04T18:00:00Z) - Sensing quantum chaos through the non-unitary geometric phase [62.997667081978825]
量子カオスを検知するデコヒーレント機構を提案する。
多体量子系のカオス的性質は、それが結合したプローブの長時間の力学においてシステムが生成する意味を研究することによって知覚される。
論文 参考訳(メタデータ) (2021-04-13T17:24:08Z) - Universal Adversarial Examples and Perturbations for Quantum Classifiers [0.0]
量子分類器の逆例と摂動の普遍性について研究する。
我々は、$ n$ qubitsの各受信入力データを持つ$ k$分類器のセットのために、$ O(frac k 2n)$摂動強度の増加は、適度な普遍的な敵対的リスクを確保するために十分であることを証明します。
論文 参考訳(メタデータ) (2021-02-15T19:00:09Z) - Robust in Practice: Adversarial Attacks on Quantum Machine Learning [0.0]
最先端の古典的ニューラルネットワークは、小さな対向性摂動に弱いことが観察されている。
量子機械学習(QML)モデルでは、より深刻な脆弱性が指摘されている。
論文 参考訳(メタデータ) (2020-10-16T17:57:32Z) - Quantum noise protects quantum classifiers against adversaries [120.08771960032033]
量子情報処理におけるノイズは、特に短期的な量子技術において、破壊的で避け難い特徴と見なされることが多い。
量子回路の非偏極雑音を利用して分類を行うことにより、敵に縛られるロバスト性を導出できることを示す。
これは、最も一般的な敵に対して使用できる最初の量子プロトコルである。
論文 参考訳(メタデータ) (2020-03-20T17:56:14Z) - Quantum Adversarial Machine Learning [0.0]
適応機械学習は、敵の設定における機械学習アプローチの脆弱性の研究に焦点を当てた新興分野である。
本稿では,量子機械学習の文脈における様々な逆シナリオについて考察する。
ほぼ最先端の精度を達成する量子分類器は、敵の例によって決定的に欺くことができる。
論文 参考訳(メタデータ) (2019-12-31T19:00:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。