論文の概要: Quantum Self-Attention Neural Networks for Text Classification
- arxiv url: http://arxiv.org/abs/2205.05625v1
- Date: Wed, 11 May 2022 16:50:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 20:26:46.008149
- Title: Quantum Self-Attention Neural Networks for Text Classification
- Title(参考訳): テキスト分類のための量子自己注意ニューラルネットワーク
- Authors: Guangxi Li, Xuanqiang Zhao, Xin Wang
- Abstract要約: 量子自己アテンションニューラルネットワーク(QSANN)と呼ばれる,新しいシンプルなネットワークアーキテクチャを提案する。
本稿では,量子ニューラルネットワークに自己アテンション機構を導入し,ガウス射影量子自己アテンションを自己アテンションの有感な量子バージョンとして活用する。
我々のQSANNは大規模データセットで有効でスケーラブルであり、短期量子デバイスで実装できるという望ましい特性を持っている。
- 参考スコア(独自算出の注目度): 8.467503414303637
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An emerging direction of quantum computing is to establish meaningful quantum
applications in various fields of artificial intelligence, including natural
language processing (NLP). Although some efforts based on syntactic analysis
have opened the door to research in Quantum NLP (QNLP), limitations such as
heavy syntactic preprocessing and syntax-dependent network architecture make
them impracticable on larger and real-world data sets. In this paper, we
propose a new simple network architecture, called the quantum self-attention
neural network (QSANN), which can make up for these limitations. Specifically,
we introduce the self-attention mechanism into quantum neural networks and then
utilize a Gaussian projected quantum self-attention serving as a sensible
quantum version of self-attention. As a result, QSANN is effective and scalable
on larger data sets and has the desirable property of being implementable on
near-term quantum devices. In particular, our QSANN outperforms the best
existing QNLP model based on syntactic analysis as well as a simple classical
self-attention neural network in numerical experiments of text classification
tasks on public data sets. We further show that our method exhibits robustness
to low-level quantum noises.
- Abstract(参考訳): 量子コンピューティングの新たな方向性は、自然言語処理(NLP)を含むさまざまな人工知能分野における有意義な量子応用を確立することである。
構文解析に基づくいくつかの取り組みは量子NLP(QNLP)の研究の扉を開いたが、過剰な構文前処理や構文依存ネットワークアーキテクチャのような制限は、より大規模で現実的なデータセットでは実行不可能である。
本稿では,これらの制約を補う量子自己認識ニューラルネットワーク(QSANN)と呼ばれる,新しいシンプルなネットワークアーキテクチャを提案する。
具体的には,量子ニューラルネットワークに自己アテンション機構を導入し,ガウス射影量子自己アテンションを自己アテンションの知覚可能な量子バージョンとして利用する。
その結果、QSANNは大規模データセット上で有効でスケーラブルであり、短期量子デバイス上で実装可能な望ましい特性を有する。
特に、我々のQSANNは、構文解析に基づくQNLPモデルと、公開データセット上のテキスト分類タスクの数値実験において、単純な古典的自己アテンションニューラルネットワークより優れている。
さらに,本手法は低レベル量子雑音に対するロバスト性を示す。
関連論文リスト
- Let the Quantum Creep In: Designing Quantum Neural Network Models by
Gradually Swapping Out Classical Components [1.024113475677323]
現代のAIシステムはニューラルネットワーク上に構築されることが多い。
古典的ニューラルネットワーク層を量子層に置き換える枠組みを提案する。
画像分類データセットの数値実験を行い、量子部品の体系的導入による性能変化を実証する。
論文 参考訳(メタデータ) (2024-09-26T07:01:29Z) - Shedding Light on the Future: Exploring Quantum Neural Networks through Optics [3.1935899800030096]
量子ニューラルネットワーク(QNN)は、急速に発展する量子機械学習分野において、新興技術として重要な役割を果たす。
本稿では,QNNの概念とその物理的実現,特に量子光学に基づく実装について概説する。
論文 参考訳(メタデータ) (2024-09-04T08:49:57Z) - CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - Multi-Scale Feature Fusion Quantum Depthwise Convolutional Neural Networks for Text Classification [3.0079490585515343]
量子畳み込みに基づく新しい量子ニューラルネットワーク(QNN)モデルを提案する。
我々は、パラメータの数を著しく減らし、計算複雑性を下げる量子深度畳み込みを開発する。
また,単語レベルの特徴と文レベルの特徴を統合することで,モデル性能を向上させるマルチスケール機能融合機構を導入する。
論文 参考訳(メタデータ) (2024-05-22T10:19:34Z) - Quantum Mixed-State Self-Attention Network [3.1280831148667105]
本稿では、量子コンピューティングの原理と古典的な機械学習アルゴリズムを統合する新しい量子混合状態注意ネットワーク(QMSAN)を紹介する。
QMSANモデルは混合状態に基づく量子アテンション機構を採用し、量子領域内のクエリとキー間の類似性を効率的に直接推定することを可能にする。
本研究は,QMSANが低雑音に対する可換ロバスト性を有することを示すため,異なる量子雑音環境におけるモデルのロバスト性について検討した。
論文 参考訳(メタデータ) (2024-03-05T11:29:05Z) - QuanGCN: Noise-Adaptive Training for Robust Quantum Graph Convolutional
Networks [124.7972093110732]
本稿では,ノード間の局所的なメッセージパッシングをクロスゲート量子演算のシーケンスで学習する量子グラフ畳み込みネットワーク(QuanGCN)を提案する。
現代の量子デバイスから固有のノイズを緩和するために、ノードの接続をスパーズするためにスパース制約を適用します。
我々のQuanGCNは、いくつかのベンチマークグラフデータセットの古典的なアルゴリズムよりも機能的に同等か、さらに優れている。
論文 参考訳(メタデータ) (2022-11-09T21:43:16Z) - Quantum Federated Learning with Quantum Data [87.49715898878858]
量子機械学習(QML)は、量子コンピューティングの発展に頼って、大規模な複雑な機械学習問題を探求する、有望な分野として登場した。
本稿では、量子データ上で動作し、量子回路パラメータの学習を分散的に共有できる初めての完全量子連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-30T12:19:27Z) - Quantum neural networks with deep residual learning [29.929891641757273]
本稿では,深層残留学習(resqnn)を用いた新しい量子ニューラルネットワークを提案する。
ResQNNは未知のユニタリを学び、驚くべきパフォーマンスを得ることができます。
論文 参考訳(メタデータ) (2020-12-14T18:11:07Z) - Decentralizing Feature Extraction with Quantum Convolutional Neural
Network for Automatic Speech Recognition [101.69873988328808]
特徴抽出のための量子回路エンコーダからなる量子畳み込みニューラルネットワーク(QCNN)を構築した。
入力音声はまず、Mel-spectrogramを抽出するために量子コンピューティングサーバにアップストリームされる。
対応する畳み込み特徴は、ランダムパラメータを持つ量子回路アルゴリズムを用いて符号化される。
符号化された機能は、最終認識のためにローカルRNNモデルにダウンストリームされる。
論文 参考訳(メタデータ) (2020-10-26T03:36:01Z) - On the learnability of quantum neural networks [132.1981461292324]
本稿では,量子ニューラルネットワーク(QNN)の学習可能性について考察する。
また,概念をQNNで効率的に学習することができれば,ゲートノイズがあってもQNNで効果的に学習できることを示す。
論文 参考訳(メタデータ) (2020-07-24T06:34:34Z) - Entanglement Classification via Neural Network Quantum States [58.720142291102135]
本稿では、学習ツールと量子絡み合いの理論を組み合わせて、純状態における多部量子ビット系の絡み合い分類を行う。
我々は、ニューラルネットワーク量子状態(NNS)として知られる制限されたボルツマンマシン(RBM)アーキテクチャにおいて、人工ニューラルネットワークを用いた量子システムのパラメータ化を用いる。
論文 参考訳(メタデータ) (2019-12-31T07:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。