論文の概要: Universal Adversarial Examples and Perturbations for Quantum Classifiers
- arxiv url: http://arxiv.org/abs/2102.07788v1
- Date: Mon, 15 Feb 2021 19:00:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 09:16:26.874344
- Title: Universal Adversarial Examples and Perturbations for Quantum Classifiers
- Title(参考訳): 量子分類器の普遍的逆例と摂動
- Authors: Weiyuan Gong and Dong-Ling Deng
- Abstract要約: 量子分類器の逆例と摂動の普遍性について研究する。
我々は、$ n$ qubitsの各受信入力データを持つ$ k$分類器のセットのために、$ O(frac k 2n)$摂動強度の増加は、適度な普遍的な敵対的リスクを確保するために十分であることを証明します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum machine learning explores the interplay between machine learning and
quantum physics, which may lead to unprecedented perspectives for both fields.
In fact, recent works have shown strong evidences that quantum computers could
outperform classical computers in solving certain notable machine learning
tasks. Yet, quantum learning systems may also suffer from the vulnerability
problem: adding a tiny carefully-crafted perturbation to the legitimate input
data would cause the systems to make incorrect predictions at a notably high
confidence level. In this paper, we study the universality of adversarial
examples and perturbations for quantum classifiers. Through concrete examples
involving classifications of real-life images and quantum phases of matter, we
show that there exist universal adversarial examples that can fool a set of
different quantum classifiers. We prove that for a set of $k$ classifiers with
each receiving input data of $n$ qubits, an $O(\frac{\ln k} {2^n})$ increase of
the perturbation strength is enough to ensure a moderate universal adversarial
risk. In addition, for a given quantum classifier we show that there exist
universal adversarial perturbations, which can be added to different legitimate
samples and make them to be adversarial examples for the classifier. Our
results reveal the universality perspective of adversarial attacks for quantum
machine learning systems, which would be crucial for practical applications of
both near-term and future quantum technologies in solving machine learning
problems.
- Abstract(参考訳): 量子機械学習は、機械学習と量子物理学の相互作用を探求し、両方の分野に前例のない視点をもたらす可能性がある。
実際、最近の研究は、量子コンピュータがある種の注目すべき機械学習タスクを解く際に、古典的コンピュータより優れているという強い証拠を示している。
しかし、量子学習システムも脆弱性に悩まされる可能性がある。正統な入力データに微妙に細工された摂動を加えると、システムは特に高い信頼度で誤った予測を下すことになる。
本稿では,量子分類器の逆例と摂動の普遍性について検討する。
実生活画像の分類と物質の量子位相を含む具体的な例を通して、異なる量子分類器の集合を騙すことができる普遍的な逆例が存在することを示す。
それぞれの入力データを$n$ qubitsとする$k$分類器の集合に対して、$O(\frac{\ln k} {2^n})$摂動強度の増加は、適度な普遍的対角リスクを確保するのに十分であることを示す。
さらに、与えられた量子分類器に対して、異なる正当なサンプルに追加でき、分類器の逆の例にすることができる普遍的な逆摂動が存在することを示す。
本研究では、機械学習の問題解決における短期的および将来の量子技術の実用化に不可欠となる量子機械学習システムに対する逆攻撃の普遍的な視点を明らかにした。
関連論文リスト
- The curse of random quantum data [62.24825255497622]
量子データのランドスケープにおける量子機械学習の性能を定量化する。
量子機械学習におけるトレーニング効率と一般化能力は、量子ビットの増加に伴い指数関数的に抑制される。
この結果は量子カーネル法と量子ニューラルネットワークの広帯域限界の両方に適用できる。
論文 参考訳(メタデータ) (2024-08-19T12:18:07Z) - Universal adversarial perturbations for multiple classification tasks
with quantum classifiers [0.0]
量子敵対機械学習は、敵対的摂動に対する量子学習システムの脆弱性を研究する。
本稿では、不均一な分類タスクの文脈における量子普遍摂動について考察する。
2つの異なる分類タスクにおいて、ほぼ最先端の精度を達成する量子分類器は、慎重に作られた1つの普遍摂動によって決定的に欺くことができる。
論文 参考訳(メタデータ) (2023-06-21T02:02:41Z) - Classical Verification of Quantum Learning [42.362388367152256]
量子学習の古典的検証のための枠組みを開発する。
そこで我々は,新しい量子データアクセスモデルを提案し,これを"mixture-of-superpositions"量子例と呼ぶ。
この結果から,学習課題における量子データの潜在能力は無限ではないものの,古典的エージェントが活用できることが示唆された。
論文 参考訳(メタデータ) (2023-06-08T00:31:27Z) - Enhancing Quantum Adversarial Robustness by Randomized Encodings [10.059889429655582]
本稿では,正規データサンプルをランダムに符号化することにより,量子学習システムを敵攻撃から保護する手法を提案する。
グローバルおよび局所ランダムなユニタリエンコーダの両方が指数関数的に勾配を消失させることを示す。
ランダムなブラックボックス量子誤り訂正エンコーダは、量子分類器を局所的な逆雑音から保護できることを示す。
論文 参考訳(メタデータ) (2022-12-05T19:00:08Z) - Certified Robustness of Quantum Classifiers against Adversarial Examples
through Quantum Noise [68.1992787416233]
量子ランダムな回転雑音を加えることで、敵攻撃に対する量子分類器のロバスト性を向上できることを示す。
我々は、量子分類器が敵の例に対して防御できるように、証明された堅牢性を導出する。
論文 参考訳(メタデータ) (2022-11-02T05:17:04Z) - Noisy Quantum Kernel Machines [58.09028887465797]
量子学習マシンの新たなクラスは、量子カーネルのパラダイムに基づくものである。
消散と脱コヒーレンスがパフォーマンスに与える影響について検討する。
量子カーネルマシンでは,デコヒーレンスや散逸を暗黙の正規化とみなすことができる。
論文 参考訳(メタデータ) (2022-04-26T09:52:02Z) - Experimental quantum adversarial learning with programmable
superconducting qubits [15.24718195264974]
プログラム可能な超伝導量子ビットを用いた量子対数学習の実験実験を行った。
本研究は,量子学習システムにおいて,敵対的シナリオ下での重大な脆弱性の側面を実験的に明らかにした。
論文 参考訳(メタデータ) (2022-04-04T18:00:00Z) - Experimental Quantum Generative Adversarial Networks for Image
Generation [93.06926114985761]
超伝導量子プロセッサを用いた実世界の手書き桁画像の学習と生成を実験的に行う。
我々の研究は、短期量子デバイス上での高度な量子生成モデル開発のためのガイダンスを提供する。
論文 参考訳(メタデータ) (2020-10-13T06:57:17Z) - Quantum noise protects quantum classifiers against adversaries [120.08771960032033]
量子情報処理におけるノイズは、特に短期的な量子技術において、破壊的で避け難い特徴と見なされることが多い。
量子回路の非偏極雑音を利用して分類を行うことにより、敵に縛られるロバスト性を導出できることを示す。
これは、最も一般的な敵に対して使用できる最初の量子プロトコルである。
論文 参考訳(メタデータ) (2020-03-20T17:56:14Z) - Machine learning transfer efficiencies for noisy quantum walks [62.997667081978825]
グラフ型と量子系コヒーレンスの両方の要件を見つけるプロセスは自動化可能であることを示す。
この自動化は、特定のタイプの畳み込みニューラルネットワークを使用して、どのネットワークで、どのコヒーレンス要求の量子優位性が可能かを学習する。
我々の結果は、量子実験における利点の実証と、科学的研究と発見の自動化への道を開くために重要である。
論文 参考訳(メタデータ) (2020-01-15T18:36:53Z) - Quantum Adversarial Machine Learning [0.0]
適応機械学習は、敵の設定における機械学習アプローチの脆弱性の研究に焦点を当てた新興分野である。
本稿では,量子機械学習の文脈における様々な逆シナリオについて考察する。
ほぼ最先端の精度を達成する量子分類器は、敵の例によって決定的に欺くことができる。
論文 参考訳(メタデータ) (2019-12-31T19:00:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。