論文の概要: A natural NISQ model of quantum self-attention mechanism
- arxiv url: http://arxiv.org/abs/2305.15680v1
- Date: Thu, 25 May 2023 03:09:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 17:43:11.599608
- Title: A natural NISQ model of quantum self-attention mechanism
- Title(参考訳): 量子自己アテンション機構の自然なNISQモデル
- Authors: Shangshang Shi, Zhimin Wang, Jiaxin Li, Yanan Li, Ruimin Shang,
Haiyong Zheng, Guoqiang Zhong, Yongjian Gu
- Abstract要約: SAM(Self-attention mechanism)は、様々な応用において顕著な成功を収めている。
量子ニューラルネットワーク(QNN)は,新しい学習モデルとして開発されている。
我々はQNNにSAMを実装する全く自然な方法を提案し、量子自己認識機構(QSAM)を導いた。
- 参考スコア(独自算出の注目度): 11.613292674155685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The self-attention mechanism (SAM) has demonstrated remarkable success in
various applications. However, training SAM on classical computers becomes
computationally challenging as the number of trainable parameters grows.
Quantum neural networks (QNNs) have been developed as a novel learning model
that promises to provide speedup for pattern recognition using near-term Noisy
Intermediate-Scale Quantum (NISQ) computers. In this work, we propose a
completely natural way of implementing SAM in QNNs, resulting in the quantum
self-attention mechanism (QSAM). The fundamental operations of SAM, such as
calculating attention scores and producing attention features, are realized by
only designing the data encoding and ansatz architecture appropriately. As
these are the fundamental components of QNNs, our QSAM can be executed
efficiently on near-term NISQ devices. Our QSAM models achieve better
performance in terms of both accuracy and circuit complexity on the text
categorization task. Moreover, the robustness of QSAM against various typical
types of quantum noise is demonstrated, indicating the model's suitability for
NISQ devices. The present QSAM will serve as the fundamental building blocks
for developing large models of quantum attention neural networks for quantum
advantageous applications.
- Abstract(参考訳): SAM(Self-attention mechanism)は様々な応用において顕著な成功を収めている。
しかし,従来のコンピュータ上でのSAMのトレーニングは,トレーニング可能なパラメータの数が増加するにつれて,計算的に困難になる。
量子ニューラルネットワーク(QNN)は、NISQ(Noisy Intermediate-Scale Quantum)コンピュータを用いてパターン認識の高速化を提供する新しい学習モデルとして開発された。
本研究では,QNNにSAMを実装する方法として,量子自己保持機構(QSAM)を提案する。
SAMの基本動作、例えば注意スコアの計算や注意特徴の生成は、データエンコーディングとアンザッツアーキテクチャを適切に設計することで実現される。
これらがQNNの基本コンポーネントであるため、我々のQSAMはNISQデバイス上で効率的に実行できる。
我々のQSAMモデルは、テキスト分類タスクにおける精度と回路の複雑さの両方の観点から、より良い性能を達成する。
さらに、様々な種類の量子ノイズに対するQSAMの堅牢性を示し、NISQデバイスに対するモデルの適合性を示す。
現在のQSAMは、量子優位アプリケーションのための量子注意ニューラルネットワークの大規模モデルを開発するための基本的な構成要素として機能する。
関連論文リスト
- Quantum Mixed-State Self-Attention Network [3.1280831148667105]
本稿では、量子コンピューティングの原理と古典的な機械学習アルゴリズムを統合する新しい量子混合状態注意ネットワーク(QMSAN)を紹介する。
QMSANモデルは混合状態に基づく量子アテンション機構を採用し、量子領域内のクエリとキー間の類似性を効率的に直接推定することを可能にする。
本研究は,QMSANが低雑音に対する可換ロバスト性を有することを示すため,異なる量子雑音環境におけるモデルのロバスト性について検討した。
論文 参考訳(メタデータ) (2024-03-05T11:29:05Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - QSAN: A Near-term Achievable Quantum Self-Attention Network [73.15524926159702]
SAM(Self-Attention Mechanism)は機能の内部接続を捉えるのに長けている。
短期量子デバイスにおける画像分類タスクに対して,新しい量子自己注意ネットワーク(QSAN)を提案する。
論文 参考訳(メタデータ) (2022-07-14T12:22:51Z) - Entanglement entropy production in Quantum Neural Networks [0.0]
量子ニューラルネットワーク(QNN)は、ノイズ中間量子コンピュータ(NISQ)時代に量子優位性を達成するための候補と考えられている。
任意のQNNアーキテクチャにおいて、絡み合いが生成される速度に対して、普遍的な振舞いを示す。
本稿では,QNNにおける絡み合い生成を特徴付ける新しい指標として,絡み合いの速度について紹介する。
論文 参考訳(メタデータ) (2022-06-06T10:17:17Z) - Quantum Self-Attention Neural Networks for Text Classification [8.975913540662441]
量子自己アテンションニューラルネットワーク(QSANN)と呼ばれる,新しいシンプルなネットワークアーキテクチャを提案する。
本稿では,量子ニューラルネットワークに自己アテンション機構を導入し,ガウス射影量子自己アテンションを自己アテンションの有感な量子バージョンとして活用する。
提案手法は低レベル量子雑音に対するロバスト性を示し,量子ニューラルネットワークアーキテクチャに対するレジリエンスを示す。
論文 参考訳(メタデータ) (2022-05-11T16:50:46Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Entanglement Classification via Neural Network Quantum States [58.720142291102135]
本稿では、学習ツールと量子絡み合いの理論を組み合わせて、純状態における多部量子ビット系の絡み合い分類を行う。
我々は、ニューラルネットワーク量子状態(NNS)として知られる制限されたボルツマンマシン(RBM)アーキテクチャにおいて、人工ニューラルネットワークを用いた量子システムのパラメータ化を用いる。
論文 参考訳(メタデータ) (2019-12-31T07:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。