論文の概要: QKSAN: A Quantum Kernel Self-Attention Network
- arxiv url: http://arxiv.org/abs/2308.13422v2
- Date: Thu, 12 Oct 2023 15:54:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 15:04:51.931315
- Title: QKSAN: A Quantum Kernel Self-Attention Network
- Title(参考訳): QKSAN:量子カーネル自己アテンションネットワーク
- Authors: Ren-Xin Zhao and Jinjing Shi and Xuelong Li
- Abstract要約: 量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
- 参考スコア(独自算出の注目度): 53.96779043113156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-Attention Mechanism (SAM) excels at distilling important information
from the interior of data to improve the computational efficiency of models.
Nevertheless, many Quantum Machine Learning (QML) models lack the ability to
distinguish the intrinsic connections of information like SAM, which limits
their effectiveness on massive high-dimensional quantum data. To tackle the
above issue, a Quantum Kernel Self-Attention Mechanism (QKSAM) is introduced to
combine the data representation merit of Quantum Kernel Methods (QKM) with the
efficient information extraction capability of SAM. Further, a Quantum Kernel
Self-Attention Network (QKSAN) framework is proposed based on QKSAM, which
ingeniously incorporates the Deferred Measurement Principle (DMP) and
conditional measurement techniques to release half of quantum resources by
mid-circuit measurement, thereby bolstering both feasibility and adaptability.
Simultaneously, the Quantum Kernel Self-Attention Score (QKSAS) with an
exponentially large characterization space is spawned to accommodate more
information and determine the measurement conditions. Eventually, four QKSAN
sub-models are deployed on PennyLane and IBM Qiskit platforms to perform binary
classification on MNIST and Fashion MNIST, where the QKSAS tests and
correlation assessments between noise immunity and learning ability are
executed on the best-performing sub-model. The paramount experimental finding
is that a potential learning advantage is revealed in partial QKSAN subclasses
that acquire an impressive more than 98.05% high accuracy with very few
parameters that are much less in aggregate than classical machine learning
models. Predictably, QKSAN lays the foundation for future quantum computers to
perform machine learning on massive amounts of data while driving advances in
areas such as quantum computer vision.
- Abstract(参考訳): SAM(Self-Attention Mechanism)は、データの内部から重要な情報を蒸留することで、モデルの計算効率を向上させる。
それにもかかわらず、多くの量子機械学習(qml)モデルは、samのような情報の本質的な接続を区別する能力が欠けている。
上記の課題に対処するために、量子カーネル自己認識機構(QKSAM)を導入し、量子カーネル手法(QKM)のデータ表現特性とSAMの効率的な情報抽出能力を組み合わせた。
さらに,QKSAMに基づくQKSAN(Quantum Kernel Self-Attention Network)フレームワークを提案する。このフレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んで,中間回路測定により量子資源の半分を放出し,実現可能性と適応性を促進させる。
同時に、指数的に大きな特徴空間を持つ量子カーネル自己注意スコア(QKSAS)が生成され、より多くの情報と測定条件が決定される。
最終的に、4つのQKSANサブモデルがPennyLaneとIBM Qiskitプラットフォーム上にデプロイされ、MNISTとFashion MNISTのバイナリ分類が行われ、QKSASテストとノイズ免疫と学習能力の相関評価が最高のパフォーマンスのサブモデル上で実行される。
パラマウントの実験的な発見は、従来の機械学習モデルよりもはるかに少ないパラメータで98.05%以上の精度を持つ部分的なqksanサブクラスにおいて、潜在的な学習上の優位性が明らかにされていることである。
予測上、qksanは将来の量子コンピュータが大量のデータで機械学習を実行し、量子コンピュータビジョンのような分野の進歩を推進する基盤を築いている。
関連論文リスト
- Quantum Mixed-State Self-Attention Network [3.1280831148667105]
本稿では、量子コンピューティングの原理と古典的な機械学習アルゴリズムを統合する新しい量子混合状態注意ネットワーク(QMSAN)を紹介する。
QMSANモデルは混合状態に基づく量子アテンション機構を採用し、量子領域内のクエリとキー間の類似性を効率的に直接推定することを可能にする。
本研究は,QMSANが低雑音に対する可換ロバスト性を有することを示すため,異なる量子雑音環境におけるモデルのロバスト性について検討した。
論文 参考訳(メタデータ) (2024-03-05T11:29:05Z) - GQHAN: A Grover-inspired Quantum Hard Attention Network [53.96779043113156]
GQHAM(Grover-inspired Quantum Hard Attention Mechanism)を提案する。
GQHANは、既存の量子ソフト自己保持機構の有効性を超越して、非微分可能性ハードルをかなり上回っている。
GQHANの提案は、将来の量子コンピュータが大規模データを処理する基盤を築き、量子コンピュータビジョンの開発を促進するものである。
論文 参考訳(メタデータ) (2024-01-25T11:11:16Z) - A natural NISQ model of quantum self-attention mechanism [11.613292674155685]
SAM(Self-attention mechanism)は、様々な応用において顕著な成功を収めている。
量子ニューラルネットワーク(QNN)は,新しい学習モデルとして開発されている。
我々はQNNにSAMを実装する全く自然な方法を提案し、量子自己認識機構(QSAM)を導いた。
論文 参考訳(メタデータ) (2023-05-25T03:09:17Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Potential and limitations of quantum extreme learning machines [55.41644538483948]
本稿では,QRCとQELMをモデル化するフレームワークを提案する。
我々の分析は、QELMとQRCの両方の機能と限界をより深く理解するための道を開いた。
論文 参考訳(メタデータ) (2022-10-03T09:32:28Z) - Deterministic and random features for large-scale quantum kernel machine [0.9404723842159504]
提案した決定論的およびランダムな特徴を用いて量子カーネル法(QKM)をスケーラブルにすることができることを示す。
O(1,000) sim O(10,000)$トレーニングデータを含むデータセットを用いた数値実験は,本手法の有効性を裏付けるものである。
論文 参考訳(メタデータ) (2022-09-05T13:22:34Z) - QSAN: A Near-term Achievable Quantum Self-Attention Network [73.15524926159702]
SAM(Self-Attention Mechanism)は機能の内部接続を捉えるのに長けている。
短期量子デバイスにおける画像分類タスクに対して,新しい量子自己注意ネットワーク(QSAN)を提案する。
論文 参考訳(メタデータ) (2022-07-14T12:22:51Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Quantum machine learning with differential privacy [3.2442879131520126]
微分プライベート最適化アルゴリズムを用いて,プライバシ保存を訓練したハイブリッド量子古典モデルを開発した。
実験では、差分プライベートQMLは、モデル精度を低下させることなく、ユーザに敏感な情報を保護することができる。
論文 参考訳(メタデータ) (2021-03-10T18:06:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。