論文の概要: QKSAN: A Quantum Kernel Self-Attention Network
- arxiv url: http://arxiv.org/abs/2308.13422v1
- Date: Fri, 25 Aug 2023 15:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 13:31:12.784575
- Title: QKSAN: A Quantum Kernel Self-Attention Network
- Title(参考訳): QKSAN:量子カーネル自己アテンションネットワーク
- Authors: Ren-Xin Zhao and Jinjing Shi and Xuelong Li
- Abstract要約: SAM(Self-Attention Mechanism)は、データの内部から重要な情報を抽出し、モデルの計算効率を向上させる。
多くの量子機械学習(QML)モデルにはSAMのような情報固有の接続を区別する能力がない。
量子カーネル自己注意ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を用いて,QKSAMに基づいて構築されている。
4つのQKSANモデルをPennylaneプラットフォーム上に展開し、MNIST画像のバイナリ分類を行う。
- 参考スコア(独自算出の注目度): 53.96779043113156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-Attention Mechanism (SAM) is skilled at extracting important information
from the interior of data to improve the computational efficiency of models.
Nevertheless, many Quantum Machine Learning (QML) models lack the ability to
distinguish the intrinsic connections of information like SAM, which limits
their effectiveness on massive high-dimensional quantum data. To address this
issue, a Quantum Kernel Self-Attention Mechanism (QKSAM) is introduced, which
combines the data representation benefit of Quantum Kernel Methods (QKM) with
the efficient information extraction capability of SAM. A Quantum Kernel
Self-Attention Network (QKSAN) framework is built based on QKSAM, with Deferred
Measurement Principle (DMP) and conditional measurement techniques, which
releases half of the quantum resources with probabilistic measurements during
computation. The Quantum Kernel Self-Attention Score (QKSAS) determines the
measurement conditions and reflects the probabilistic nature of quantum
systems. Finally, four QKSAN models are deployed on the Pennylane platform to
perform binary classification on MNIST images. The best-performing among the
four models is assessed for noise immunity and learning ability. Remarkably,
the potential learning benefit of partial QKSAN models over classical deep
learning is that they require few parameters for a high return of 98\% $\pm$
1\% test and train accuracy, even with highly compressed images. QKSAN lays the
foundation for future quantum computers to perform machine learning on massive
amounts of data, while driving advances in areas such as quantum Natural
Language Processing (NLP).
- Abstract(参考訳): SAM(Self-Attention Mechanism)は、データの内部から重要な情報を抽出し、モデルの計算効率を向上させる。
それにもかかわらず、多くの量子機械学習(qml)モデルは、samのような情報の本質的な接続を区別する能力が欠けている。
この問題に対処するため、Quantum Kernel Self-Attention Mechanism (QKSAM)を導入し、Quantum Kernel Methods (QKM)のデータ表現の利点とSAMの効率的な情報抽出能力を組み合わせた。
Quantum Kernel Self-Attention Network (QKSAN)フレームワークはQKSAMに基づいて構築されており、DMP(Dederred Measurement Principle)と条件測定技術により、計算中に確率的測定を行う量子リソースの半分を解放する。
qksas(quantum kernel self-attention score)は、測定条件を決定し、量子システムの確率的性質を反映している。
最後に、4つのQKSANモデルをPennylaneプラットフォームにデプロイし、MNISTイメージのバイナリ分類を実行する。
4つのモデルの中で最高のパフォーマンスは、ノイズ免疫と学習能力で評価される。
注目すべきなのは、古典的なディープラーニングよりも部分的なQKSANモデルの潜在的な学習の利点は、高い圧縮された画像であっても、98\%$\pm$ 1\%のテストとトレーニングの精度を高く評価するために、パラメータが少ないことである。
QKSANは将来の量子コンピュータの基礎を築き、膨大な量のデータを機械学習し、量子自然言語処理(NLP)のような分野の進歩を推進している。
関連論文リスト
- Quantum Mixed-State Self-Attention Network [3.1280831148667105]
本稿では、量子コンピューティングの原理と古典的な機械学習アルゴリズムを統合する新しい量子混合状態注意ネットワーク(QMSAN)を紹介する。
QMSANモデルは混合状態に基づく量子アテンション機構を採用し、量子領域内のクエリとキー間の類似性を効率的に直接推定することを可能にする。
本研究は,QMSANが低雑音に対する可換ロバスト性を有することを示すため,異なる量子雑音環境におけるモデルのロバスト性について検討した。
論文 参考訳(メタデータ) (2024-03-05T11:29:05Z) - GQHAN: A Grover-inspired Quantum Hard Attention Network [53.96779043113156]
GQHAM(Grover-inspired Quantum Hard Attention Mechanism)を提案する。
GQHANは、既存の量子ソフト自己保持機構の有効性を超越して、非微分可能性ハードルをかなり上回っている。
GQHANの提案は、将来の量子コンピュータが大規模データを処理する基盤を築き、量子コンピュータビジョンの開発を促進するものである。
論文 参考訳(メタデータ) (2024-01-25T11:11:16Z) - A natural NISQ model of quantum self-attention mechanism [11.613292674155685]
SAM(Self-attention mechanism)は、様々な応用において顕著な成功を収めている。
量子ニューラルネットワーク(QNN)は,新しい学習モデルとして開発されている。
我々はQNNにSAMを実装する全く自然な方法を提案し、量子自己認識機構(QSAM)を導いた。
論文 参考訳(メタデータ) (2023-05-25T03:09:17Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Potential and limitations of quantum extreme learning machines [55.41644538483948]
本稿では,QRCとQELMをモデル化するフレームワークを提案する。
我々の分析は、QELMとQRCの両方の機能と限界をより深く理解するための道を開いた。
論文 参考訳(メタデータ) (2022-10-03T09:32:28Z) - Deterministic and random features for large-scale quantum kernel machine [0.9404723842159504]
提案した決定論的およびランダムな特徴を用いて量子カーネル法(QKM)をスケーラブルにすることができることを示す。
O(1,000) sim O(10,000)$トレーニングデータを含むデータセットを用いた数値実験は,本手法の有効性を裏付けるものである。
論文 参考訳(メタデータ) (2022-09-05T13:22:34Z) - QSAN: A Near-term Achievable Quantum Self-Attention Network [73.15524926159702]
SAM(Self-Attention Mechanism)は機能の内部接続を捉えるのに長けている。
短期量子デバイスにおける画像分類タスクに対して,新しい量子自己注意ネットワーク(QSAN)を提案する。
論文 参考訳(メタデータ) (2022-07-14T12:22:51Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Quantum machine learning with differential privacy [3.2442879131520126]
微分プライベート最適化アルゴリズムを用いて,プライバシ保存を訓練したハイブリッド量子古典モデルを開発した。
実験では、差分プライベートQMLは、モデル精度を低下させることなく、ユーザに敏感な情報を保護することができる。
論文 参考訳(メタデータ) (2021-03-10T18:06:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。