論文の概要: Quantum Mixed-State Self-Attention Network
- arxiv url: http://arxiv.org/abs/2403.02871v1
- Date: Tue, 5 Mar 2024 11:29:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 15:07:17.039843
- Title: Quantum Mixed-State Self-Attention Network
- Title(参考訳): 量子混合状態自己注意ネットワーク
- Authors: Fu Chen, Qinglin Zhao, Li Feng, Chuangtao Chen, Yangbin Lin, Jianhong
Lin
- Abstract要約: 本稿では、量子コンピューティングの原理と古典的な機械学習アルゴリズムを統合する新しい量子混合状態注意ネットワーク(QMSAN)を紹介する。
QMSANモデルは混合状態に基づく量子アテンション機構を採用し、量子領域内のクエリとキー間の類似性を効率的に直接推定することを可能にする。
本研究は,QMSANが低雑音に対する可換ロバスト性を有することを示すため,異なる量子雑音環境におけるモデルのロバスト性について検討した。
- 参考スコア(独自算出の注目度): 3.314566358917308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advancement of quantum computing has increasingly highlighted its
potential in the realm of machine learning, particularly in the context of
natural language processing (NLP) tasks. Quantum machine learning (QML)
leverages the unique capabilities of quantum computing to offer novel
perspectives and methodologies for complex data processing and pattern
recognition challenges. This paper introduces a novel Quantum Mixed-State
Attention Network (QMSAN), which integrates the principles of quantum computing
with classical machine learning algorithms, especially self-attention networks,
to enhance the efficiency and effectiveness in handling NLP tasks. QMSAN model
employs a quantum attention mechanism based on mixed states, enabling efficient
direct estimation of similarity between queries and keys within the quantum
domain, leading to more effective attention weight acquisition. Additionally,
we propose an innovative quantum positional encoding scheme, implemented
through fixed quantum gates within the quantum circuit, to enhance the model's
accuracy. Experimental validation on various datasets demonstrates that QMSAN
model outperforms existing quantum and classical models in text classification,
achieving significant performance improvements. QMSAN model not only
significantly reduces the number of parameters but also exceeds classical
self-attention networks in performance, showcasing its strong capability in
data representation and information extraction. Furthermore, our study
investigates the model's robustness in different quantum noise environments,
showing that QMSAN possesses commendable robustness to low noise.
- Abstract(参考訳): 量子コンピューティングの急速な進歩は、機械学習分野、特に自然言語処理(NLP)タスクの文脈におけるその可能性を強調している。
量子機械学習(QML)は、量子コンピューティングのユニークな能力を活用し、複雑なデータ処理とパターン認識の課題に対する新しい視点と方法論を提供する。
本稿では、量子コンピューティングの原理を古典的機械学習アルゴリズム、特に自己注意ネットワークと統合し、NLPタスクの処理効率と効率を向上させる新しい量子混合状態注意ネットワーク(QMSAN)を提案する。
QMSANモデルは混合状態に基づく量子アテンション機構を採用し、量子領域内のクエリとキー間の類似性を効率的に直接推定し、より効果的なアテンションウェイト取得を実現する。
さらに,量子回路内の固定量子ゲートによって実装された革新的な量子位置符号化方式を提案し,モデルの精度を向上する。
様々なデータセットに対する実験的検証は、QMSANモデルが既存の量子モデルや古典モデルをテキスト分類で上回り、大幅な性能改善を実現していることを示している。
QMSANモデルはパラメータ数を著しく削減するだけでなく、パフォーマンスにおいて従来の自己認識ネットワークを超え、データ表現や情報抽出におけるその強力な能力を示している。
さらに,量子雑音環境におけるモデルのロバスト性について検討し,qmsanが低雑音に対する可換ロバスト性を有することを示した。
関連論文リスト
- A learning agent-based approach to the characterization of open quantum systems [0.0]
我々は,オープンな量子モデル学習エージェント (oQMLA) フレームワークを導入し,Louvillianフォーマリズムによるマルコフ雑音を考慮した。
ハミルトン作用素とジャンプ作用素を同時に学習することにより、oQMLAは独立に系のコヒーレント力学と非コヒーレント力学の両方を捉える。
複雑化のシミュレーションシナリオにおける本実装の有効性を検証し,ハードウェアによる測定誤差に対するロバスト性を示す。
論文 参考訳(メタデータ) (2025-01-09T16:25:17Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - Optimal Stochastic Resource Allocation for Distributed Quantum Computing [50.809738453571015]
本稿では,分散量子コンピューティング(DQC)のためのリソース割り当て方式を提案する。
本評価は,提案手法の有効性と,量子コンピュータとオンデマンド量子コンピュータの両立性を示すものである。
論文 参考訳(メタデータ) (2022-09-16T02:37:32Z) - QSAN: A Near-term Achievable Quantum Self-Attention Network [73.15524926159702]
SAM(Self-Attention Mechanism)は機能の内部接続を捉えるのに長けている。
短期量子デバイスにおける画像分類タスクに対して,新しい量子自己注意ネットワーク(QSAN)を提案する。
論文 参考訳(メタデータ) (2022-07-14T12:22:51Z) - Recent Advances for Quantum Neural Networks in Generative Learning [98.88205308106778]
量子生成学習モデル(QGLM)は、古典的な学習モデルを上回る可能性がある。
機械学習の観点からQGLMの現状を概観する。
従来の機械学習タスクと量子物理学の両方におけるQGLMの潜在的な応用について論じる。
論文 参考訳(メタデータ) (2022-06-07T07:32:57Z) - Quantum Self-Attention Neural Networks for Text Classification [8.975913540662441]
量子自己アテンションニューラルネットワーク(QSANN)と呼ばれる,新しいシンプルなネットワークアーキテクチャを提案する。
本稿では,量子ニューラルネットワークに自己アテンション機構を導入し,ガウス射影量子自己アテンションを自己アテンションの有感な量子バージョンとして活用する。
提案手法は低レベル量子雑音に対するロバスト性を示し,量子ニューラルネットワークアーキテクチャに対するレジリエンスを示す。
論文 参考訳(メタデータ) (2022-05-11T16:50:46Z) - Quantum Semantic Communications for Resource-Efficient Quantum Networking [52.3355619190963]
本稿では、量子機械学習と量子意味表現の進歩を活かした新しい量子意味通信(QSC)フレームワークを提案する。
提案手法は,高い量子セマンティック忠実度を達成しつつ,必要な量子通信資源の約50~75%の削減を実現する。
論文 参考訳(メタデータ) (2022-05-05T03:49:19Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Attention-based Quantum Tomography [9.818293236208413]
Attention-based Quantum Tomography は、アテンション機構に基づく生成ネットワークを用いた量子状態再構成である。
AQTは、IBMQ量子コンピュータで実験的に実現されたノイズ量子状態に関連する密度行列を正確に再構成可能であることを示す。
論文 参考訳(メタデータ) (2020-06-22T17:50:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。