論文の概要: Quantum Adversarial Machine Learning
- arxiv url: http://arxiv.org/abs/2001.00030v1
- Date: Tue, 31 Dec 2019 19:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 20:43:02.022022
- Title: Quantum Adversarial Machine Learning
- Title(参考訳): 量子敵対機械学習
- Authors: Sirui Lu, Lu-Ming Duan, Dong-Ling Deng
- Abstract要約: 適応機械学習は、敵の設定における機械学習アプローチの脆弱性の研究に焦点を当てた新興分野である。
本稿では,量子機械学習の文脈における様々な逆シナリオについて考察する。
ほぼ最先端の精度を達成する量子分類器は、敵の例によって決定的に欺くことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial machine learning is an emerging field that focuses on studying
vulnerabilities of machine learning approaches in adversarial settings and
developing techniques accordingly to make learning robust to adversarial
manipulations. It plays a vital role in various machine learning applications
and has attracted tremendous attention across different communities recently.
In this paper, we explore different adversarial scenarios in the context of
quantum machine learning. We find that, similar to traditional classifiers
based on classical neural networks, quantum learning systems are likewise
vulnerable to crafted adversarial examples, independent of whether the input
data is classical or quantum. In particular, we find that a quantum classifier
that achieves nearly the state-of-the-art accuracy can be conclusively deceived
by adversarial examples obtained via adding imperceptible perturbations to the
original legitimate samples. This is explicitly demonstrated with quantum
adversarial learning in different scenarios, including classifying real-life
images (e.g., handwritten digit images in the dataset MNIST), learning phases
of matter (such as, ferromagnetic/paramagnetic orders and symmetry protected
topological phases), and classifying quantum data. Furthermore, we show that
based on the information of the adversarial examples at hand, practical defense
strategies can be designed to fight against a number of different attacks. Our
results uncover the notable vulnerability of quantum machine learning systems
to adversarial perturbations, which not only reveals a novel perspective in
bridging machine learning and quantum physics in theory but also provides
valuable guidance for practical applications of quantum classifiers based on
both near-term and future quantum technologies.
- Abstract(参考訳): 敵対的機械学習は、敵対的設定における機械学習アプローチの脆弱性の研究と、敵的操作に対して学習を堅牢にする技術開発に焦点を当てた新興分野である。
さまざまな機械学習アプリケーションにおいて重要な役割を担い、最近ではさまざまなコミュニティで大きな注目を集めている。
本稿では,量子機械学習の文脈において,異なる逆のシナリオを探索する。
古典的ニューラルネットワークに基づく従来の分類器と同様に、量子学習システムは、入力データが古典的か量子的かに関わらず、製造された逆数例に対して同様に脆弱である。
特に、ほぼ最先端の精度を達成する量子分類器は、元の正統なサンプルに知覚不能な摂動を加えることによって得られる逆例によって決定的に欺くことができる。
これは、現実のイメージ(データセットMNISTで手書きの桁画像など)の分類、物質の学習フェーズ(強磁性/常磁性秩序や対称性で保護された位相位相など)、量子データの分類など、様々なシナリオでの量子対向学習で明確に示されている。
さらに,本手法は,敵の事例の情報に基づいて,様々な攻撃に対して実用的な防御戦略を設計できることを示す。
本研究は, 理論的に機械学習と量子物理学を橋渡しする新たな視点を明らかにするだけでなく, 近い将来の量子技術と将来の量子技術の両方に基づく量子分類器の実用的応用に有用なガイダンスを提供するものである。
関連論文リスト
- The curse of random quantum data [62.24825255497622]
量子データのランドスケープにおける量子機械学習の性能を定量化する。
量子機械学習におけるトレーニング効率と一般化能力は、量子ビットの増加に伴い指数関数的に抑制される。
この結果は量子カーネル法と量子ニューラルネットワークの広帯域限界の両方に適用できる。
論文 参考訳(メタデータ) (2024-08-19T12:18:07Z) - Statistical Complexity of Quantum Learning [32.48879688084909]
本稿では,情報理論を用いた量子学習の複雑さについて概説する。
データ複雑性、コピー複雑性、モデルの複雑さに重点を置いています。
我々は、教師なし学習と教師なし学習の両方に対処することで、量子学習と古典学習の違いを強調する。
論文 参考訳(メタデータ) (2023-09-20T20:04:05Z) - ShadowNet for Data-Centric Quantum System Learning [188.683909185536]
本稿では,ニューラルネットワークプロトコルと古典的シャドウの強みを組み合わせたデータ中心学習パラダイムを提案する。
ニューラルネットワークの一般化力に基づいて、このパラダイムはオフラインでトレーニングされ、これまで目に見えないシステムを予測できる。
量子状態トモグラフィーおよび直接忠実度推定タスクにおいて、我々のパラダイムのインスタンス化を示し、60量子ビットまでの数値解析を行う。
論文 参考訳(メタデータ) (2023-08-22T09:11:53Z) - Quantum data learning for quantum simulations in high-energy physics [55.41644538483948]
本研究では,高エネルギー物理における量子データ学習の実践的問題への適用性について検討する。
我々は、量子畳み込みニューラルネットワークに基づくアンサッツを用いて、基底状態の量子位相を認識できることを数値的に示す。
これらのベンチマークで示された非自明な学習特性の観察は、高エネルギー物理学における量子データ学習アーキテクチャのさらなる探求の動機となる。
論文 参考訳(メタデータ) (2023-06-29T18:00:01Z) - Universal adversarial perturbations for multiple classification tasks
with quantum classifiers [0.0]
量子敵対機械学習は、敵対的摂動に対する量子学習システムの脆弱性を研究する。
本稿では、不均一な分類タスクの文脈における量子普遍摂動について考察する。
2つの異なる分類タスクにおいて、ほぼ最先端の精度を達成する量子分類器は、慎重に作られた1つの普遍摂動によって決定的に欺くことができる。
論文 参考訳(メタデータ) (2023-06-21T02:02:41Z) - Enhancing Quantum Adversarial Robustness by Randomized Encodings [10.059889429655582]
本稿では,正規データサンプルをランダムに符号化することにより,量子学習システムを敵攻撃から保護する手法を提案する。
グローバルおよび局所ランダムなユニタリエンコーダの両方が指数関数的に勾配を消失させることを示す。
ランダムなブラックボックス量子誤り訂正エンコーダは、量子分類器を局所的な逆雑音から保護できることを示す。
論文 参考訳(メタデータ) (2022-12-05T19:00:08Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Modern applications of machine learning in quantum sciences [51.09906911582811]
本稿では、教師なし、教師なし、強化学習アルゴリズムにおけるディープラーニングとカーネル手法の使用について述べる。
我々は、微分可能プログラミング、生成モデル、機械学習に対する統計的アプローチ、量子機械学習など、より専門的なトピックについて議論する。
論文 参考訳(メタデータ) (2022-04-08T17:48:59Z) - Experimental quantum adversarial learning with programmable
superconducting qubits [15.24718195264974]
プログラム可能な超伝導量子ビットを用いた量子対数学習の実験実験を行った。
本研究は,量子学習システムにおいて,敵対的シナリオ下での重大な脆弱性の側面を実験的に明らかにした。
論文 参考訳(メタデータ) (2022-04-04T18:00:00Z) - Universal Adversarial Examples and Perturbations for Quantum Classifiers [0.0]
量子分類器の逆例と摂動の普遍性について研究する。
我々は、$ n$ qubitsの各受信入力データを持つ$ k$分類器のセットのために、$ O(frac k 2n)$摂動強度の増加は、適度な普遍的な敵対的リスクを確保するために十分であることを証明します。
論文 参考訳(メタデータ) (2021-02-15T19:00:09Z) - Quantum noise protects quantum classifiers against adversaries [120.08771960032033]
量子情報処理におけるノイズは、特に短期的な量子技術において、破壊的で避け難い特徴と見なされることが多い。
量子回路の非偏極雑音を利用して分類を行うことにより、敵に縛られるロバスト性を導出できることを示す。
これは、最も一般的な敵に対して使用できる最初の量子プロトコルである。
論文 参考訳(メタデータ) (2020-03-20T17:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。