論文の概要: Training robust and generalizable quantum models
- arxiv url: http://arxiv.org/abs/2311.11871v2
- Date: Fri, 3 May 2024 09:14:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-06 17:57:01.978290
- Title: Training robust and generalizable quantum models
- Title(参考訳): 堅牢で一般化可能な量子模型の訓練
- Authors: Julian Berberich, Daniel Fink, Daniel Pranjić, Christian Tutschku, Christian Holm,
- Abstract要約: 敵対的堅牢性と一般化は、信頼できる機械学習モデルの重要な特性である。
トレーニング可能なエンコーディングを持つ量子モデルに対してパラメータ依存リプシッツ境界を導出する。
我々の理論的な発見は、堅牢で一般化可能な量子モデルを訓練するための実践的な戦略を生み出します。
- 参考スコア(独自算出の注目度): 1.010625578207404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial robustness and generalization are both crucial properties of reliable machine learning models. In this letter, we study these properties in the context of quantum machine learning based on Lipschitz bounds. We derive parameter-dependent Lipschitz bounds for quantum models with trainable encoding, showing that the norm of the data encoding has a crucial impact on the robustness against data perturbations. Further, we derive a bound on the generalization error which explicitly involves the parameters of the data encoding. Our theoretical findings give rise to a practical strategy for training robust and generalizable quantum models by regularizing the Lipschitz bound in the cost. Further, we show that, for fixed and non-trainable encodings, as those frequently employed in quantum machine learning, the Lipschitz bound cannot be influenced by tuning the parameters. Thus, trainable encodings are crucial for systematically adapting robustness and generalization during training. The practical implications of our theoretical findings are illustrated with numerical results.
- Abstract(参考訳): 敵対的堅牢性と一般化はどちらも信頼性のある機械学習モデルの重要な特性である。
本稿では,これらの特性をリプシッツ境界に基づく量子機械学習の文脈で研究する。
我々は、トレーニング可能なエンコーディングを持つ量子モデルに対するパラメータ依存リプシッツ境界を導出し、データエンコーディングの規範がデータ摂動に対するロバスト性に決定的な影響を与えることを示す。
さらに、データエンコーディングのパラメータを明示的に含む一般化誤差のバウンダリを導出する。
我々の理論的な結果は、コストでリプシッツ境界を正則化することによって、堅牢で一般化可能な量子モデルをトレーニングするための実践的な戦略を生み出します。
さらに、量子機械学習でよく使用される固定および非トレーニング可能な符号化に対して、リプシッツ境界はパラメータのチューニングの影響を受けないことを示す。
したがって、トレーニング中の堅牢性と一般化を体系的に適応させるには、トレーニング可能なエンコーディングが不可欠である。
理論的知見の実際的意義は, 数値的な結果とともに示される。
関連論文リスト
- Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [63.733312560668274]
d可変RZゲートとG-dクリフォードゲートを含む量子回路を与えられた場合、学習者は純粋に古典的な推論を行い、その線形特性を効率的に予測できるだろうか?
我々は、d で線形にスケーリングするサンプルの複雑さが、小さな予測誤差を達成するのに十分であり、対応する計算の複雑さは d で指数関数的にスケールすることを証明する。
我々は,予測誤差と計算複雑性をトレードオフできるカーネルベースの学習モデルを考案し,多くの実践的な環境で指数関数からスケーリングへ移行した。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Certifiably Robust Encoding Schemes [40.54768963869454]
量子機械学習は、量子力学の原理を使ってデータを処理し、速度と性能の潜在的な進歩を提供する。
これまでの研究では、これらのモデルが入力データを操作したり、量子回路のノイズを悪用したりする攻撃を受けやすいことが示されている。
本研究では,従来のデータ符号化方式における摂動に対するロバスト性を調べることで,この研究線を拡張した。
論文 参考訳(メタデータ) (2024-08-02T11:29:21Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Expressibility-induced Concentration of Quantum Neural Tangent Kernels [4.561685127984694]
量子タンジェントカーネルモデルのトレーニング可能性と表現性の関係について検討する。
大域的損失関数に対して、大域的および局所的な量子符号化の両方の高表現性は、量子接核値の指数集中を0に導くことを厳密に証明する。
我々の発見は量子ニューラル・タンジェント・カーネルの重要な特徴を明らかにし、広い量子変動回路モデルの設計に有用な洞察を提供する。
論文 参考訳(メタデータ) (2023-11-08T19:00:01Z) - Understanding quantum machine learning also requires rethinking
generalization [0.3683202928838613]
一般化を理解する従来のアプローチでは、量子モデルの振る舞いを説明できないことを示す。
実験によると、最先端の量子ニューラルネットワークはトレーニングデータのランダムな状態とランダムなラベル付けに正確に適合している。
論文 参考訳(メタデータ) (2023-06-23T12:04:13Z) - Generalization despite overfitting in quantum machine learning models [0.0]
量子モデルにおける良性過剰適合のキャラクタリゼーションを提供する。
量子モデルのクラスが如何に類似した特徴を示すかを示す。
我々はこれらの特徴を、局所的な「スパイク」な振る舞いでノイズデータを補間する量子モデルの能力に応じて直感的に説明する。
論文 参考訳(メタデータ) (2022-09-12T18:08:45Z) - Lipschitz Continuity Retained Binary Neural Network [52.17734681659175]
我々は,BNNのモデルロバスト性を定義するための厳密な基準として,リプシッツ連続性を導入する。
次に、モデルロバスト性を改善するための正規化項としてリプシッツ連続性を維持することを提案する。
実験により,我々のBNN固有の正規化手法は,BNNの堅牢性を効果的に強化できることが証明された。
論文 参考訳(メタデータ) (2022-07-13T22:55:04Z) - Controlling the Complexity and Lipschitz Constant improves polynomial
nets [55.121200972539114]
多項式ネットの結合CP分解(CCP)モデルとNested Coupled CP分解(NCP)モデルに対する新しい複雑性境界を導出する。
本研究では、6つのデータセットで実験的に評価し、モデルが逆摂動に対して頑健であるとともに精度も向上することを示す。
論文 参考訳(メタデータ) (2022-02-10T14:54:29Z) - Generalization Metrics for Practical Quantum Advantage in Generative
Models [68.8204255655161]
生成モデリングは量子コンピュータにとって広く受け入れられている自然のユースケースである。
我々は,アルゴリズムの一般化性能を計測して,生成モデリングのための実用的な量子優位性を探索する,単純で曖昧な手法を構築した。
シミュレーションの結果、我々の量子にインスパイアされたモデルは、目に見えない、有効なサンプルを生成するのに、最大で68倍の費用がかかります。
論文 参考訳(メタデータ) (2022-01-21T16:35:35Z) - Measuring Generalization with Optimal Transport [111.29415509046886]
我々は、マージンを最適輸送コストで正規化する、マージンベースの一般化境界を開発する。
我々の境界は、大規模データセット上でトレーニングデータとネットワークパラメータを与えられた一般化誤差を強く予測する。
論文 参考訳(メタデータ) (2021-06-07T03:04:59Z) - Fundamental thresholds of realistic quantum error correction circuits
from classical spin models [0.0]
モンテカルロシミュレーションを用いて、関連する相互作用スピンモデルの位相図を解析する。
提案手法は,特定の復号化戦略とは無関係に,QEC符号と関連する読み出し回路の基本しきい値を評価するための手段を提供する。
論文 参考訳(メタデータ) (2021-04-10T19:26:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。