論文の概要: Quantum Neural Networks under Depolarization Noise: Exploring White-Box
Attacks and Defenses
- arxiv url: http://arxiv.org/abs/2311.17458v2
- Date: Thu, 21 Dec 2023 09:31:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 18:00:56.376102
- Title: Quantum Neural Networks under Depolarization Noise: Exploring White-Box
Attacks and Defenses
- Title(参考訳): デポーライゼーションノイズ下における量子ニューラルネットワーク:ホワイトボックス攻撃と防御を探求する
- Authors: David Winderl, Nicola Franco, Jeanette Miriam Lorenz
- Abstract要約: 量子対向機械学習は、QMLモデルの弱い点と、対向した特徴ベクトルに直面するときの強調に役立っている。
マルチクラス分類シナリオにおいて, 脱分極雑音の付加は, さらなる堅牢性の提供を中止したことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Leveraging the unique properties of quantum mechanics, Quantum Machine
Learning (QML) promises computational breakthroughs and enriched perspectives
where traditional systems reach their boundaries. However, similarly to
classical machine learning, QML is not immune to adversarial attacks. Quantum
adversarial machine learning has become instrumental in highlighting the weak
points of QML models when faced with adversarial crafted feature vectors.
Diving deep into this domain, our exploration shines light on the interplay
between depolarization noise and adversarial robustness. While previous results
enhanced robustness from adversarial threats through depolarization noise, our
findings paint a different picture. Interestingly, adding depolarization noise
discontinued the effect of providing further robustness for a multi-class
classification scenario. Consolidating our findings, we conducted experiments
with a multi-class classifier adversarially trained on gate-based quantum
simulators, further elucidating this unexpected behavior.
- Abstract(参考訳): 量子力学のユニークな性質を活用して、量子機械学習(QML)は計算的なブレークスルーと、従来のシステムが境界に達するようなリッチな視点を約束する。
しかし、古典的な機械学習と同様に、QMLは敵の攻撃に免疫を持たない。
量子対向機械学習は、QMLモデルの弱い点と、対向した特徴ベクトルに直面するときの強調に役立っている。
この領域に深く入り込むと、我々の探索は偏極ノイズと対向ロバスト性の間の相互作用に光を当てます。
前報では非分極ノイズによる敵対的脅威からのロバスト性が高まったが,本研究は異なる像を呈する。
興味深いことに、脱分極ノイズの追加は、マルチクラス分類シナリオにさらなる堅牢性を提供する効果を中止した。
その結果を整理し,ゲート型量子シミュレータで逆向きに学習した多クラス分類器を用いて実験を行った。
関連論文リスト
- Adversarial Robustness Guarantees for Quantum Classifiers [0.4934360430803066]
本稿では,QMLアルゴリズムの量子特性が,このような攻撃に対する基本的保護を導出できることを示す。
我々は、この保護の量子源を特定するために、多体物理学のツールを活用している。
論文 参考訳(メタデータ) (2024-05-16T18:00:01Z) - A Comparative Analysis of Adversarial Robustness for Quantum and Classical Machine Learning Models [0.0]
古典モデルと量子モデルの相似性と相違点について検討する。
この結果から,量子古典境界上でのQML回路の古典的近似を「中間基底」と見なすことができた。
論文 参考訳(メタデータ) (2024-04-24T19:20:15Z) - GQHAN: A Grover-inspired Quantum Hard Attention Network [53.96779043113156]
GQHAM(Grover-inspired Quantum Hard Attention Mechanism)を提案する。
GQHANは、既存の量子ソフト自己保持機構の有効性を超越して、非微分可能性ハードルをかなり上回っている。
GQHANの提案は、将来の量子コンピュータが大規模データを処理する基盤を築き、量子コンピュータビジョンの開発を促進するものである。
論文 参考訳(メタデータ) (2024-01-25T11:11:16Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Problem-Dependent Power of Quantum Neural Networks on Multi-Class
Classification [83.20479832949069]
量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
本稿では,多クラス分類タスクにおけるQCの問題依存力について検討する。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2022-12-29T10:46:40Z) - Enhancing Quantum Adversarial Robustness by Randomized Encodings [10.059889429655582]
本稿では,正規データサンプルをランダムに符号化することにより,量子学習システムを敵攻撃から保護する手法を提案する。
グローバルおよび局所ランダムなユニタリエンコーダの両方が指数関数的に勾配を消失させることを示す。
ランダムなブラックボックス量子誤り訂正エンコーダは、量子分類器を局所的な逆雑音から保護できることを示す。
論文 参考訳(メタデータ) (2022-12-05T19:00:08Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - Certified Robustness of Quantum Classifiers against Adversarial Examples
through Quantum Noise [68.1992787416233]
量子ランダムな回転雑音を加えることで、敵攻撃に対する量子分類器のロバスト性を向上できることを示す。
我々は、量子分類器が敵の例に対して防御できるように、証明された堅牢性を導出する。
論文 参考訳(メタデータ) (2022-11-02T05:17:04Z) - Quantum noise protects quantum classifiers against adversaries [120.08771960032033]
量子情報処理におけるノイズは、特に短期的な量子技術において、破壊的で避け難い特徴と見なされることが多い。
量子回路の非偏極雑音を利用して分類を行うことにより、敵に縛られるロバスト性を導出できることを示す。
これは、最も一般的な敵に対して使用できる最初の量子プロトコルである。
論文 参考訳(メタデータ) (2020-03-20T17:56:14Z) - Quantum Adversarial Machine Learning [0.0]
適応機械学習は、敵の設定における機械学習アプローチの脆弱性の研究に焦点を当てた新興分野である。
本稿では,量子機械学習の文脈における様々な逆シナリオについて考察する。
ほぼ最先端の精度を達成する量子分類器は、敵の例によって決定的に欺くことができる。
論文 参考訳(メタデータ) (2019-12-31T19:00:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。