論文の概要: QNet: A Quantum-native Sequence Encoder Architecture
- arxiv url: http://arxiv.org/abs/2210.17262v1
- Date: Mon, 31 Oct 2022 12:36:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 18:20:10.479071
- Title: QNet: A Quantum-native Sequence Encoder Architecture
- Title(参考訳): QNet: 量子ネイティブシーケンスエンコーダアーキテクチャ
- Authors: Wei Day, Hao-Sheng Chen, Min-Te Sun
- Abstract要約: 本研究では、現在の量子コンピュータが自然言語処理タスクの性能をどのように向上させるかを検討する。
量子コンピュータ上で最小数の量子ビットを用いて完全に推論する新しいシーケンスエンコーダモデルQNetを提案する。
テキスト分類,評価スコア予測,名前付きエンティティ認識など,自然言語処理タスクにおけるResQNetの評価を行った。
- 参考スコア(独自算出の注目度): 4.1905641322861324
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work investigates how current quantum computers can improve the
performance of natural language processing tasks. To achieve this goal, we
proposed QNet, a novel sequence encoder model entirely inferences on the
quantum computer using a minimum number of qubits. QNet is inspired by
Transformer, the state-of-the-art neural network model based on the attention
mechanism to relate the tokens. While the attention mechanism requires time
complexity of $O(n^2 \cdot d)$ to perform matrix multiplication operations,
QNet has merely $O(n+d)$ quantum circuit depth, where $n$ and $d$ represent the
length of the sequence and the embedding size, respectively. To employ QNet on
the NISQ devices, ResQNet, a quantum-classical hybrid model composed of several
QNet blocks linked by residual connections, is introduced. We evaluate ResQNet
on various natural language processing tasks, including text classification,
rating score prediction, and named entity recognition. ResQNet exhibits a 6% to
818% performance gain on all these tasks over classical state-of-the-art models
using the exact embedding dimensions. In summary, this work demonstrates the
advantage of quantum computing in natural language processing tasks.
- Abstract(参考訳): 本研究は,現在の量子コンピュータが自然言語処理タスクの性能を改善する方法について検討する。
この目的を達成するために、最小数の量子ビットを用いて量子コンピュータ上で完全に推論する新しいシーケンスエンコーダモデルQNetを提案した。
QNetはトークンを関連付けるアテンションメカニズムに基づいた最先端のニューラルネットワークモデルであるTransformerにインスパイアされている。
注意機構は行列乗算演算を行うために$O(n^2 \cdot d)$の時間複雑さを必要とするが、QNetは単に$O(n+d)$の量子回路深さを持ち、$n$と$d$はそれぞれシーケンスの長さと埋め込みサイズを表す。
NISQデバイスにQNetを採用するために、ResQNetは、残差接続によってリンクされた複数のQNetブロックからなる量子古典ハイブリッドモデルである。
テキスト分類,評価スコア予測,名前付きエンティティ認識など,自然言語処理タスクにおけるResQNetの評価を行った。
ResQNetは、これらすべてのタスクに対して、正確な埋め込み次元を使用して、古典的な最先端モデルよりも6%から818%のパフォーマンス向上を示す。
まとめると、この研究は自然言語処理タスクにおける量子コンピューティングの利点を示している。
関連論文リスト
- Extending Quantum Perceptrons: Rydberg Devices, Multi-Class Classification, and Error Tolerance [67.77677387243135]
量子ニューロモーフィックコンピューティング(QNC)は、量子計算とニューラルネットワークを融合して、量子機械学習(QML)のためのスケーラブルで耐雑音性のあるアルゴリズムを作成する
QNCの中核は量子パーセプトロン(QP)であり、相互作用する量子ビットのアナログダイナミクスを利用して普遍的な量子計算を可能にする。
論文 参考訳(メタデータ) (2024-11-13T23:56:20Z) - Quantum Algorithms for Compositional Text Processing [1.3654846342364308]
本稿では、最近提案された自然言語用DisCoCircフレームワークに注目し、量子適応QDisCoCircを提案する。
これはAI解釈可能なレンダリングに対する構成的アプローチによって動機付けられている。
テキスト類似性のモデルネイティブな原始演算に対しては、フォールトトレラントな量子コンピュータのための量子アルゴリズムを導出する。
論文 参考訳(メタデータ) (2024-08-12T11:21:40Z) - Multi-Scale Feature Fusion Quantum Depthwise Convolutional Neural Networks for Text Classification [3.0079490585515343]
量子畳み込みに基づく新しい量子ニューラルネットワーク(QNN)モデルを提案する。
我々は、パラメータの数を著しく減らし、計算複雑性を下げる量子深度畳み込みを開発する。
また,単語レベルの特徴と文レベルの特徴を統合することで,モデル性能を向上させるマルチスケール機能融合機構を導入する。
論文 参考訳(メタデータ) (2024-05-22T10:19:34Z) - TeD-Q: a tensor network enhanced distributed hybrid quantum machine
learning framework [59.07246314484875]
TeD-Qは、量子機械学習のためのオープンソースのソフトウェアフレームワークである。
古典的な機械学習ライブラリと量子シミュレータをシームレスに統合する。
量子回路とトレーニングの進捗をリアルタイムで視覚化できるグラフィカルモードを提供する。
論文 参考訳(メタデータ) (2023-01-13T09:35:05Z) - The Basis of Design Tools for Quantum Computing: Arrays, Decision
Diagrams, Tensor Networks, and ZX-Calculus [55.58528469973086]
量子コンピュータは、古典的コンピュータが決して起こらない重要な問題を効率的に解決することを約束する。
完全に自動化された量子ソフトウェアスタックを開発する必要がある。
この研究は、今日のツールの"内部"の外観を提供し、量子回路のシミュレーション、コンパイル、検証などにおいてこれらの手段がどのように利用されるかを示す。
論文 参考訳(メタデータ) (2023-01-10T19:00:00Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Quantum Neuron with Separable-State Encoding [0.0]
現在利用可能な量子プロセッサにおいて、高度な量子ニューロンモデルを大規模にテストすることは、まだ不可能である。
マルチキュービットゲート数を削減した量子パーセプトロン(QP)モデルを提案する。
シミュレーション量子コンピュータにおいて,QPの量子ビットバージョンをいくつか実装することにより,提案モデルの性能を実証する。
論文 参考訳(メタデータ) (2022-02-16T19:26:23Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - A Quantum Convolutional Neural Network on NISQ Devices [0.9831489366502298]
本稿では,畳み込みニューラルネットワークに着想を得た量子畳み込みニューラルネットワークを提案する。
我々のモデルは、画像認識タスクの特定のノイズに対して堅牢である。
これは、ビッグデータ時代の情報を処理するために、量子パワーを活用する可能性を開く。
論文 参考訳(メタデータ) (2021-04-14T15:07:03Z) - Decentralizing Feature Extraction with Quantum Convolutional Neural
Network for Automatic Speech Recognition [101.69873988328808]
特徴抽出のための量子回路エンコーダからなる量子畳み込みニューラルネットワーク(QCNN)を構築した。
入力音声はまず、Mel-spectrogramを抽出するために量子コンピューティングサーバにアップストリームされる。
対応する畳み込み特徴は、ランダムパラメータを持つ量子回路アルゴリズムを用いて符号化される。
符号化された機能は、最終認識のためにローカルRNNモデルにダウンストリームされる。
論文 参考訳(メタデータ) (2020-10-26T03:36:01Z) - Supervised Learning Using a Dressed Quantum Network with "Super
Compressed Encoding": Algorithm and Quantum-Hardware-Based Implementation [7.599675376503671]
ノイズのある中間量子(NISQ)デバイス上での変分量子機械学習(QML)アルゴリズムの実装には、必要となるキュービット数とマルチキュービットゲートに関連するノイズに関連する問題がある。
本稿では,これらの問題に対処するための量子ネットワークを用いた変分QMLアルゴリズムを提案する。
他の多くのQMLアルゴリズムとは異なり、我々の量子回路は単一量子ビットゲートのみで構成されており、ノイズに対して堅牢である。
論文 参考訳(メタデータ) (2020-07-20T16:29:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。