論文の概要: Training embedding quantum kernels with data re-uploading quantum neural
networks
- arxiv url: http://arxiv.org/abs/2401.04642v1
- Date: Tue, 9 Jan 2024 16:08:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 15:25:35.385777
- Title: Training embedding quantum kernels with data re-uploading quantum neural
networks
- Title(参考訳): データ再アップロード量子ニューラルネットワークによる埋め込み量子カーネルのトレーニング
- Authors: Pablo Rodriguez-Grasa, Yue Ban, Mikel Sanz
- Abstract要約: カーネルメソッドは機械学習において重要な役割を担い、EQK(Embeding Quantum Kernels)は非常に有望なパフォーマンスを示している。
タスクに対して最適な$q$-qubit EQKを特定するために,データ再アップロードに基づく$p$-qubit Quantum Neural Network (QNN)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kernel methods play a crucial role in machine learning and the Embedding
Quantum Kernels (EQKs), an extension to quantum systems, have shown very
promising performance. However, choosing the right embedding for EQKs is
challenging. We address this by proposing a $p$-qubit Quantum Neural Network
(QNN) based on data re-uploading to identify the optimal $q$-qubit EQK for a
task ($p$-to-$q$). This method requires constructing the kernel matrix only
once, offering improved efficiency. In particular, we focus on two cases:
$n$-to-$n$, where we propose a scalable approach to train an $n$-qubit QNN, and
$1$-to-$n$, demonstrating that the training of a single-qubit QNN can be
leveraged to construct powerful EQKs.
- Abstract(参考訳): カーネルメソッドは機械学習において重要な役割を担い、量子システムの拡張であるエンベディング量子カーネル(EQK)は非常に有望なパフォーマンスを示している。
しかし、EQKの適切な埋め込みを選択することは難しい。
データ再アップロードに基づいて$p$-qubit Quantum Neural Network (QNN)を提案し、タスクに対して最適な$q$-qubit EQK(p$-to-q$)を特定する。
この方法はカーネルマトリックスを1回だけ構築する必要があり、効率が向上する。
特に、2つのケースに焦点を当てています: $n$-to-$n$。ここでは、$n$-qubit qnnをトレーニングするためのスケーラブルなアプローチと、1-qubit qnnのトレーニングを利用して強力なeqkを構築することを示しています。
関連論文リスト
- Satellite image classification with neural quantum kernels [0.0699049312989311]
量子カーネルを使用して、ソーラーパネルを含むイメージを分類します。
後者では、拡張性を確保するために$n$-qubit QNNを反復的にトレーニングし、結果のアーキテクチャを使って$n$-qubit EQKを直接生成します。
結果はQNNの準最適トレーニングに対して堅牢である。
論文 参考訳(メタデータ) (2024-09-30T14:52:00Z) - Projected Stochastic Gradient Descent with Quantum Annealed Binary Gradients [51.82488018573326]
重み付きニューラルネットワークのトレーニングに適した,新しいレイヤワイドオプティマイザであるQP-SBGDを提案する。
BNNは、深層学習モデルの計算要求とエネルギー消費を最小限の精度で削減する。
提案アルゴリズムは階層的に実装されており,リソース制限量子ハードウェア上での大規模ネットワークのトレーニングに適している。
論文 参考訳(メタデータ) (2023-10-23T17:32:38Z) - Quantum Imitation Learning [74.15588381240795]
本稿では、量子優位性を利用してILを高速化する量子模倣学習(QIL)を提案する。
量子行動クローニング(Q-BC)と量子生成逆模倣学習(Q-GAIL)という2つのQILアルゴリズムを開発した。
実験結果から,Q-BCとQ-GAILの両者が,従来のものと同等の性能を達成できることが判明した。
論文 参考訳(メタデータ) (2023-04-04T12:47:35Z) - Accelerating the training of single-layer binary neural networks using
the HHL quantum algorithm [58.720142291102135]
Harrow-Hassidim-Lloyd (HHL) の量子力学的実装から有用な情報が抽出可能であることを示す。
しかし,本論文では,HHLの量子力学的実装から有用な情報を抽出し,古典的側面における解を見つける際の複雑性を低減することを目的としている。
論文 参考訳(メタデータ) (2022-10-23T11:58:05Z) - On-chip QNN: Towards Efficient On-Chip Training of Quantum Neural
Networks [21.833693982056896]
そこで本研究では,パラメータシフトを用いた実践的なQNNトレーニングの実証実験であるOn-chip QNNを提案する。
確率的勾配プルーニング(probabilistic gradient pruning)を提案する。
その結果,2クラス,4クラスの画像分類作業において,チップ上でのトレーニングは90%以上,60%以上の精度で達成できた。
論文 参考訳(メタデータ) (2022-02-26T22:27:36Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - A Quantum Convolutional Neural Network on NISQ Devices [0.9831489366502298]
本稿では,畳み込みニューラルネットワークに着想を得た量子畳み込みニューラルネットワークを提案する。
我々のモデルは、画像認識タスクの特定のノイズに対して堅牢である。
これは、ビッグデータ時代の情報を処理するために、量子パワーを活用する可能性を開く。
論文 参考訳(メタデータ) (2021-04-14T15:07:03Z) - Hybrid quantum-classical classifier based on tensor network and
variational quantum circuit [0.0]
本稿では、量子インスパイアされたテンソルネットワーク(TN)と変分量子回路(VQC)を組み合わせて教師付き学習タスクを行うハイブリッドモデルを提案する。
低結合次元の行列積状態に基づくTNは、MNISTデータセットのバイナリ分類において、VQCの入力のためのデータを圧縮する特徴抽出器としてPCAよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-30T09:43:59Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。