論文の概要: On the Generalization of Adversarially Trained Quantum Classifiers
- arxiv url: http://arxiv.org/abs/2504.17690v1
- Date: Thu, 24 Apr 2025 15:59:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.450582
- Title: On the Generalization of Adversarially Trained Quantum Classifiers
- Title(参考訳): 逆学習量子分類器の一般化について
- Authors: Petros Georgiou, Aaron Mark Thomas, Sharu Theresa Jose, Osvaldo Simeone,
- Abstract要約: 逆行訓練では、量子分類器はアタック・アウェアの逆行損失関数を用いて訓練される。
この研究は、摂動の有無で検証した場合に、逆向きに訓練された量子分類器の一般化誤差に関する新しい境界を確立する。
- 参考スコア(独自算出の注目度): 32.48879688084909
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Quantum classifiers are vulnerable to adversarial attacks that manipulate their input classical or quantum data. A promising countermeasure is adversarial training, where quantum classifiers are trained by using an attack-aware, adversarial loss function. This work establishes novel bounds on the generalization error of adversarially trained quantum classifiers when tested in the presence of perturbation-constrained adversaries. The bounds quantify the excess generalization error incurred to ensure robustness to adversarial attacks as scaling with the training sample size $m$ as $1/\sqrt{m}$, while yielding insights into the impact of the quantum embedding. For quantum binary classifiers employing \textit{rotation embedding}, we find that, in the presence of adversarial attacks on classical inputs $\mathbf{x}$, the increase in sample complexity due to adversarial training over conventional training vanishes in the limit of high dimensional inputs $\mathbf{x}$. In contrast, when the adversary can directly attack the quantum state $\rho(\mathbf{x})$ encoding the input $\mathbf{x}$, the excess generalization error depends on the choice of embedding only through its Hilbert space dimension. The results are also extended to multi-class classifiers. We validate our theoretical findings with numerical experiments.
- Abstract(参考訳): 量子分類器は、入力された古典的または量子的データを操作する敵攻撃に対して脆弱である。
有望な対策は対向訓練であり、量子分類器は攻撃対応の対向損失関数を用いて訓練される。
この研究は、摂動に制約された敵の存在下で検証した場合に、敵に訓練された量子分類器の一般化誤差に関する新しい境界を確立する。
境界は、過大な一般化誤差を定量化し、トレーニングサンプルサイズ$m$ as $1/\sqrt{m}$でスケーリングし、量子埋め込みの影響についての洞察を得ながら、敵攻撃に対する堅牢性を確保する。
textit{rotation embedding} を用いた量子二項分類器の場合、古典的な入力に対する逆攻撃の存在下では、従来のトレーニングに対する逆トレーニングによるサンプルの複雑さの増加は、高次元入力の極限において消滅する。
対照的に、敵が入力 $\rho(\mathbf{x})$ を符号化する量子状態 $\rho(\mathbf{x})$ を直接攻撃できる場合、過剰な一般化誤差はヒルベルト空間次元を通してのみ埋め込みの選択に依存する。
結果はマルチクラス分類器にも拡張される。
数値実験により理論的知見を検証した。
関連論文リスト
- Classical Autoencoder Distillation of Quantum Adversarial Manipulations [1.4598877063396687]
本稿では,古典的オートエンコーダを用いた量子演算画像データセットの蒸留技術について報告する。
我々の研究は、古典的シナリオと量子的シナリオの両方において、完全に堅牢な量子機械学習を実現するための有望な経路を強調している。
論文 参考訳(メタデータ) (2025-04-12T13:51:08Z) - Generalization Properties of Adversarial Training for $\ell_0$-Bounded
Adversarial Attacks [47.22918498465056]
本稿では,ニューラルネットワークの重要なクラスに対する対人訓練の性能を理論的に特徴付けることを目的とする。
この設定での一般化の導出には2つの大きな課題がある。
論文 参考訳(メタデータ) (2024-02-05T22:57:33Z) - Adversarial Quantum Machine Learning: An Information-Theoretic
Generalization Analysis [39.889087719322184]
本研究では,量子分類器の一般化特性について検討した。
逆学習量子分類器の一般化誤差に関する新しい情報理論上界を導出する。
論文 参考訳(メタデータ) (2024-01-31T21:07:43Z) - Enhancing Quantum Adversarial Robustness by Randomized Encodings [10.059889429655582]
本稿では,正規データサンプルをランダムに符号化することにより,量子学習システムを敵攻撃から保護する手法を提案する。
グローバルおよび局所ランダムなユニタリエンコーダの両方が指数関数的に勾配を消失させることを示す。
ランダムなブラックボックス量子誤り訂正エンコーダは、量子分類器を局所的な逆雑音から保護できることを示す。
論文 参考訳(メタデータ) (2022-12-05T19:00:08Z) - Certified Robustness of Quantum Classifiers against Adversarial Examples
through Quantum Noise [68.1992787416233]
量子ランダムな回転雑音を加えることで、敵攻撃に対する量子分類器のロバスト性を向上できることを示す。
我々は、量子分類器が敵の例に対して防御できるように、証明された堅牢性を導出する。
論文 参考訳(メタデータ) (2022-11-02T05:17:04Z) - Benign Overfitting in Adversarially Robust Linear Classification [91.42259226639837]
分類器がノイズの多いトレーニングデータを記憶しながらも、優れた一般化性能を達成している「双曲オーバーフィッティング」は、機械学習コミュニティにおいて大きな注目を集めている。
本研究は, 対人訓練において, 対人訓練において, 良心過剰が実際に発生することを示し, 対人訓練に対する防御の原則的アプローチを示す。
論文 参考訳(メタデータ) (2021-12-31T00:27:31Z) - Qu-ANTI-zation: Exploiting Quantization Artifacts for Achieving
Adversarial Outcomes [5.865029600972316]
量子化(quantization)は、ニューラルネットワークのパラメータ表現を浮動小数点数から低精度の数値に変換する技術である。
逆量子化結果を実装するための新しいトレーニングフレームワークを提案する。
1つの妥協されたモデルが複数の量子化スキームを破ることを示す。
論文 参考訳(メタデータ) (2021-10-26T10:09:49Z) - Universal Adversarial Examples and Perturbations for Quantum Classifiers [0.0]
量子分類器の逆例と摂動の普遍性について研究する。
我々は、$ n$ qubitsの各受信入力データを持つ$ k$分類器のセットのために、$ O(frac k 2n)$摂動強度の増加は、適度な普遍的な敵対的リスクを確保するために十分であることを証明します。
論文 参考訳(メタデータ) (2021-02-15T19:00:09Z) - Robustness, Privacy, and Generalization of Adversarial Training [84.38148845727446]
本稿では, 対人訓練におけるプライバシ・ロバスト性トレードオフと一般化・ロバスト性トレードオフの確立と定量化を行う。
我々は,差分プライバシの大きさが強固な強度と正の相関を持つ場合,敵対的トレーニングは$(varepsilon,delta)$-differentially privateであることが示される。
我々の一般化境界は、ディープラーニングにおいて大きなパラメータサイズに明示的に依存していない。
論文 参考訳(メタデータ) (2020-12-25T13:35:02Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。