論文の概要: Structural risk minimization for quantum linear classifiers
- arxiv url: http://arxiv.org/abs/2105.05566v1
- Date: Wed, 12 May 2021 10:39:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 12:15:13.832933
- Title: Structural risk minimization for quantum linear classifiers
- Title(参考訳): 量子線形分類器の構造リスク最小化
- Authors: Casper Gyurik, Dyon van Vreumingen, and Vedran Dunjko
- Abstract要約: qml(quantum machine learning)は、量子コンピューティングの短期的"キラーアプリケーション"の典型的な候補の1つとして注目される。
明示的および暗黙的量子線形分類器と呼ばれる2つの密接に関連したQMLモデルの容量測定を研究する。
我々は,QMLモデルで使用される観測値のランクとフロベニウスノルムが,モデルのキャパシティを密接に制御していることを確認した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum machine learning (QML) stands out as one of the typically highlighted
candidates for quantum computing's near-term "killer application". In this
context, QML models based on parameterized quantum circuits comprise a family
of machine learning models that are well suited for implementations on
near-term devices and that can potentially harness computational powers beyond
what is efficiently achievable on a classical computer. However, how to best
use these models -- e.g., how to control their expressivity to best balance
between training accuracy and generalization performance -- is far from
understood. In this paper we investigate capacity measures of two closely
related QML models called explicit and implicit quantum linear classifiers
(also called the quantum variational method and quantum kernel estimator) with
the objective of identifying new ways to implement structural risk minimization
-- i.e., how to balance between training accuracy and generalization
performance. In particular, we identify that the rank and Frobenius norm of the
observables used in the QML model closely control the model's capacity.
Additionally, we theoretically investigate the effect that these model
parameters have on the training accuracy of the QML model. Specifically, we
show that there exists datasets that require a high-rank observable for correct
classification, and that there exists datasets that can only be classified with
a given margin using an observable of at least a certain Frobenius norm. Our
results provide new options for performing structural risk minimization for QML
models.
- Abstract(参考訳): 量子機械学習(QML)は、量子コンピューティングの短期的な「キラーアプリケーション」の候補として一般的に注目されている。
この文脈では、パラメータ化量子回路に基づくQMLモデルは、短期デバイスの実装に適しており、古典的コンピュータで効率的に達成できる以上の計算能力を利用することができる機械学習モデルのファミリーを構成する。
しかし、これらのモデル(例えば、トレーニング精度と一般化性能のバランスをとるために、その表現性を制御する方法など)を最大限に活用する方法は理解できない。
本稿では,構造的リスク最小化を実現する新しい方法,すなわち,トレーニング精度と一般化性能のバランスをとることを目的として,明示的および暗黙的量子線形分類器(quantum variational method,quantum kernel estimator)と呼ばれる2つの密接な関連qmlモデルの容量測定について検討する。
特に、QMLモデルで使用される観測値のランクとフロベニウスノルムが、モデルのキャパシティを密接に制御する。
さらに,これらのモデルパラメータがQMLモデルのトレーニング精度に与える影響を理論的に検討する。
具体的には、正しい分類のために高いランクの可観測性を必要とするデータセットが存在し、特定のフロベニウスノルムの可観測性を用いて与えられたマージンでしか分類できないデータセットが存在することを示す。
本結果は,QMLモデルの構造的リスク最小化を行うための新しい選択肢を提供する。
関連論文リスト
- Leveraging Pre-Trained Neural Networks to Enhance Machine Learning with Variational Quantum Circuits [48.33631905972908]
我々は、事前学習されたニューラルネットワークを用いて変分量子回路(VQC)を強化する革新的なアプローチを導入する。
この手法は近似誤差をキュービット数から効果的に分離し、制約条件の必要性を除去する。
我々の結果はヒトゲノム解析などの応用にまで拡張され、我々のアプローチの幅広い適用性を示している。
論文 参考訳(メタデータ) (2024-11-13T12:03:39Z) - Computable Model-Independent Bounds for Adversarial Quantum Machine Learning [4.857505043608425]
本稿では、量子ベースの逆数攻撃に対するモデルレジリエンスを評価する際に、逆数誤差の近似的下界について紹介する。
最良の場合、実験誤差は推定境界より10%だけ高く、量子モデルの本質的なロバスト性を示す。
論文 参考訳(メタデータ) (2024-11-11T10:56:31Z) - GWQ: Gradient-Aware Weight Quantization for Large Language Models [61.17678373122165]
勾配対応重み量子化(GWQ)は、勾配を利用して外れ値の局所化を行う、低ビット重み量子化のための最初の量子化手法である。
GWQはFP16精度で上位1%の外れ値に対応し、残りの非外れ値重みは低ビットフォーマットで格納される。
ゼロショットタスクでは、GWQ量子化モデルは他の量子化法よりも精度が高い。
論文 参考訳(メタデータ) (2024-10-30T11:16:04Z) - Discrete Randomized Smoothing Meets Quantum Computing [40.54768963869454]
重畳における入力バイナリデータの摂動をエンコードし、量子振幅推定(QAE)を用いてモデルへの呼び出し数を2次的に削減する方法を示す。
さらに、画像、グラフ、テキストに対するアプローチの広範な評価を可能にする新しいバイナリ脅威モデルを提案する。
論文 参考訳(メタデータ) (2024-08-01T20:21:52Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - Dequantizing quantum machine learning models using tensor networks [0.0]
本稿では,変分量子機械学習(VQML)モデルの関数クラスの復号性について紹介する。
我々の定式化は、VQMLモデルの真の量子特性に応じて適切に区別できることを示す。
論文 参考訳(メタデータ) (2023-07-13T17:56:20Z) - A Framework for Demonstrating Practical Quantum Advantage: Racing
Quantum against Classical Generative Models [62.997667081978825]
生成モデルの一般化性能を評価するためのフレームワークを構築した。
古典的および量子生成モデル間の実用的量子優位性(PQA)に対する最初の比較レースを確立する。
以上の結果から,QCBMは,他の最先端の古典的生成モデルよりも,データ制限方式の方が効率的であることが示唆された。
論文 参考訳(メタデータ) (2023-03-27T22:48:28Z) - Reflection Equivariant Quantum Neural Networks for Enhanced Image
Classification [0.7232471205719458]
我々は、データに固有の対称性を明示的に尊重する新しい機械学習モデル、いわゆる幾何量子機械学習(GQML)を構築した。
これらのネットワークは、複雑な実世界の画像データセットに対する一般的なアンサーゼを一貫して、そして著しく向上させることができる。
論文 参考訳(メタデータ) (2022-12-01T04:10:26Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Generalization Metrics for Practical Quantum Advantage in Generative
Models [68.8204255655161]
生成モデリングは量子コンピュータにとって広く受け入れられている自然のユースケースである。
我々は,アルゴリズムの一般化性能を計測して,生成モデリングのための実用的な量子優位性を探索する,単純で曖昧な手法を構築した。
シミュレーションの結果、我々の量子にインスパイアされたモデルは、目に見えない、有効なサンプルを生成するのに、最大で68倍の費用がかかります。
論文 参考訳(メタデータ) (2022-01-21T16:35:35Z) - Predicting toxicity by quantum machine learning [11.696069523681178]
本研究では, 定量的構造活性相関に基づく221種類のフェノールの毒性予測のためのQMLモデルを開発した。
その結果、量子エンタングルメントによって強化されたデータエンコーディングは、従来のエンタングルよりも表現力が高いことが示唆された。
論文 参考訳(メタデータ) (2020-08-18T02:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。