論文の概要、ライセンス

# (参考訳) テキスト分類のための量子自己注意ニューラルネットワーク [全文訳有]

Quantum Self-Attention Neural Networks for Text Classification ( http://arxiv.org/abs/2205.05625v1 )

ライセンス: CC BY 4.0
Guangxi Li, Xuanqiang Zhao, Xin Wang(参考訳) 量子コンピューティングの新たな方向性は、自然言語処理(NLP)を含むさまざまな人工知能分野における有意義な量子応用を確立することである。 構文解析に基づくいくつかの取り組みは量子NLP(QNLP)の研究の扉を開いたが、過剰な構文前処理や構文依存ネットワークアーキテクチャのような制限は、より大規模で現実的なデータセットでは実行不可能である。 本稿では,これらの制約を補う量子自己認識ニューラルネットワーク(QSANN)と呼ばれる,新しいシンプルなネットワークアーキテクチャを提案する。 具体的には,量子ニューラルネットワークに自己アテンション機構を導入し,ガウス射影量子自己アテンションを自己アテンションの知覚可能な量子バージョンとして利用する。 その結果、QSANNは大規模データセット上で有効でスケーラブルであり、短期量子デバイス上で実装可能な望ましい特性を有する。 特に、我々のQSANNは、構文解析に基づくQNLPモデルと、公開データセット上のテキスト分類タスクの数値実験において、単純な古典的自己アテンションニューラルネットワークより優れている。 さらに,本手法は低レベル量子雑音に対するロバスト性を示す。

An emerging direction of quantum computing is to establish meaningful quantum applications in various fields of artificial intelligence, including natural language processing (NLP). Although some efforts based on syntactic analysis have opened the door to research in Quantum NLP (QNLP), limitations such as heavy syntactic preprocessing and syntax-dependent network architecture make them impracticable on larger and real-world data sets. In this paper, we propose a new simple network architecture, called the quantum self-attention neural network (QSANN), which can make up for these limitations. Specifically, we introduce the self-attention mechanism into quantum neural networks and then utilize a Gaussian projected quantum self-attention serving as a sensible quantum version of self-attention. As a result, QSANN is effective and scalable on larger data sets and has the desirable property of being implementable on near-term quantum devices. In particular, our QSANN outperforms the best existing QNLP model based on syntactic analysis as well as a simple classical self-attention neural network in numerical experiments of text classification tasks on public data sets. We further show that our method exhibits robustness to low-level quantum noises.
公開日: Wed, 11 May 2022 16:50:46 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 1 1 2 2 0 2 y a m 1 1 である。 0.54
] h pt n a u q [ ] h pt n a u q [ 0.42
1 v 5 2 6 5 0 1 v 5 2 6 5 0 0.43
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Quantum Self-Attention Neural Networks 量子自己注意型ニューラルネットワーク 0.73
for Text Classification テキスト分類のために 0.72
Guangxi Li1,2, Xuanqiang Zhao1, and Xin Wang1 Guangxi Li1,2,Xuanqiang Zhao1,Xin Wang1 0.41
1Institute for Quantum Computing, Baidu Research, Beijing 100193, China 1Institute for Quantum Computing, Baidu Research, Beijing 100193, China 0.46
2Centre for Quantum Software and Information, University of Technology Sydney, NSW 2Centre for Quantum Software and Information, University of Technology Sydney, NSW 0.46
2007, Australia 2007年オーストラリア 0.77
Abstract An emerging direction of quantum computing is to establish meaningful quantum applications in various fields of artificial intelligence, including natural language processing (NLP). 概要 量子コンピューティングの新たな方向性は、自然言語処理(NLP)を含むさまざまな人工知能分野における有意義な量子応用を確立することである。 0.60
Although some efforts based on syntactic analysis have opened the door to research in Quantum NLP (QNLP), limitations such as heavy syntactic preprocessing and syntax-dependent network architecture make them impracticable on larger and real-world data sets. 構文解析に基づくいくつかの取り組みは量子NLP(QNLP)の研究の扉を開いたが、過剰な構文前処理や構文依存ネットワークアーキテクチャのような制限は、より大規模で現実的なデータセットでは実行不可能である。 0.67
In this paper, we propose a new simple network architecture, called the quantum self-attention neural network (QSANN), which can make up for these limitations. 本稿では,これらの制約を補う量子自己認識ニューラルネットワーク(QSANN)と呼ばれる,新しいシンプルなネットワークアーキテクチャを提案する。 0.76
Specifically, we introduce the self-attention mechanism into quantum neural networks and then utilize a Gaussian projected quantum self-attention serving as a sensible quantum version of self-attention. 具体的には,量子ニューラルネットワークに自己アテンション機構を導入し,ガウス射影量子自己アテンションを自己アテンションの知覚可能な量子バージョンとして利用する。 0.74
As a result, QSANN is effective and scalable on larger data sets and has the desirable property of being implementable on near-term quantum devices. その結果、QSANNは大規模データセット上で有効でスケーラブルであり、短期量子デバイス上で実装可能な望ましい特性を有する。 0.69
In particular, our QSANN outperforms the best existing QNLP model based on syntactic analysis as well as a simple classical self-attention neural network in numerical experiments of text classification tasks on public data sets. 特に、我々のQSANNは、構文解析に基づくQNLPモデルと、公開データセット上のテキスト分類タスクの数値実験において、単純な古典的自己アテンションニューラルネットワークより優れている。 0.74
We further show that our method exhibits robustness to low-level quantum noises. さらに,本手法は低レベル量子雑音に対するロバスト性を示す。 0.69
1 Introduction Quantum computing is a promising paradigm [1] for fast computations that can provide substantial advantages in solving valuable problems [2, 3, 4, 5, 6]. はじめに 量子コンピューティングは、[2, 3, 4, 5, 6]の問題を解決する上で実質的な利点を提供する高速計算にとって有望なパラダイムである。 0.69
With major academic and industry efforts on developing quantum algorithms and quantum hardware, it has led to an increasing number of powerful applications in areas including optimization [7], cryptography [8], chemistry [9, 10], and machine learning [6, 11, 12, 13]. 量子アルゴリズムと量子ハードウェアの開発において、主要な学術的および産業的な取り組みにより、最適化[7]、暗号[8]、化学[9,10]、機械学習[6,11,12,13]といった分野の強力な応用が増えている。 0.72
Quantum devices available currently known as the noisy intermediate-scale quantum (NISQ) devices [14] have up to a few hundred physical qubits. 現在、ノイズの多い中間スケール量子(nisq)デバイス[14]として知られる量子デバイスは、数百の物理的キュービットを持つ。 0.78
They are affected by coherent and incoherent noise, making the practical implementation of many advantageous quantum algorithms less feasible. これらはコヒーレントで一貫性のないノイズの影響を受け、多くの有利な量子アルゴリズムの実用的な実装は実現不可能である。 0.55
But such devices with 50-100 qubits already allow one to achieve quantum advantage against the most powerful classical supercomputers on certain carefully designed tasks [15, 16]. しかし、50-100量子ビットを持つデバイスは、特定の注意深く設計されたタスク[15, 16]において、最も強力な古典的スーパーコンピュータに対して量子的な優位性を達成することができる。 0.55
To explore practical applications with near-term quantum devices, plenty of NISQ algorithms [17, 18, 19] appear to be the best hope for obtaining quantum advantage in fields such as quantum chemistry [20], optimization [21], and machine learning [22, 23, 24]. 近い将来の量子デバイスでの実用的な応用を探求するには、量子化学[20]、最適化[21]、機械学習[22, 23, 24]といった分野において、多くのnisqアルゴリズム[17, 18, 19]が量子優位を得るための最善の希望であると思われる。 0.78
In particular, those algorithms dealing with machine learning 特に機械学習を扱うアルゴリズムは 0.61
1 1 0.42
英語(論文から抽出)日本語訳スコア
problems, by employing parameterized quantum circuits (PQCs) [25] (also called quantum neural networks (QNNs) [26]), show great potential in the field of quantum machine learning (QML). 問題は、パラメータ化された量子回路 (pqcs) [25] (quantum neural networks (qnns) [26]) を使用することで、量子機械学習 (qml) の分野で大きな可能性を秘めている。 0.86
However, in artificial intelligence (AI), the study of QML in the NISQ era is still in its infancy. しかし、人工知能(AI)においては、NISQ時代のQMLの研究はまだ初期段階にある。 0.73
Thus it is desirable to explore more QML algorithms exploiting the power that lies within the NISQ devices. したがって、NISQデバイス内にあるパワーを活用するQMLアルゴリズムをさらに探究することが望ましい。 0.80
Natural language processing (NLP) is a key subfield of AI that aims to give machines the ability to understand human language. 自然言語処理(NLP)は、機械に人間の言語を理解する能力を与えるAIの重要なサブフィールドである。 0.88
Common NLP tasks include speech recognition, machine translation, text classification, etc., many of which have greatly facilitated our life. 一般的なNLPタスクには、音声認識、機械翻訳、テキスト分類などが含まれており、その多くが私たちの生活を大いに促進している。 0.59
Due to human language’s high complexity and flexibility, NLP tasks are generally challenging to implement. 人間の言語の複雑さと柔軟性のため、NLPタスクの実装は一般的に困難である。 0.80
Thus, it is natural to think about whether and how quantum computing can enhance machines’ performance on NLP. したがって、量子コンピューティングがnlp上のマシンのパフォーマンスを向上できるかどうかと方法を考えるのは自然である。
訳抜け防止モード: したがって自然である。 量子コンピューティングがNLPにおけるマシンのパフォーマンスを向上するかどうかを考える。
0.87
Some works focus on quantum-inspired language models [27, 28, 29, 30] with borrowed ideas from quantum mechanics. いくつかの作品は量子力学のアイデアを借用した量子インスパイアされた言語モデル(27,28,29,30])に焦点を当てている。 0.61
Another approach, known as quantum natural language processing (QNLP), seeks to develop quantum-native NLP models that can be implemented on quantum devices [31, 32, 33, 34]. 量子自然言語処理(QNLP)として知られる別のアプローチは、量子デバイス [31, 32, 33, 34] に実装可能な量子ネイティブなNLPモデルの開発を目指している。 0.88
Most of these QNLP proposals, though at the frontier, lack scalability as they are based on syntactic analysis, which is a preprocessing task requiring significant effort, especially for large data sets. これらのQNLP提案のほとんどは、最前線ではスケーラビリティに欠けており、特に大規模データセットにおいて、前処理作業である構文解析に基づいている。 0.65
Furthermore, these syntax-based methods employ different PQCs for sentences with different syntactical structures and thus are not flexible enough to process the innumerable complex expressions possible in human language. さらに、これらの構文に基づく手法は、異なる構文構造を持つ文に対して異なるpqcを用いるため、人間の言語で可能な数え切れない複雑な表現を処理するには柔軟性がない。 0.61
To overcome these drawbacks in current QNLP models, we propose the quantum self-attention neural network (QSANN), where the self-attention mechanism is introduced into quantum neural networks. 現在のQNLPモデルにおけるこれらの欠点を克服するため、量子自己認識ニューラルネットワーク(QSANN)を提案し、量子ニューラルネットワークに自己認識機構を導入する。 0.79
Our motivation comes from the excellent performance of self-attention on various NLP tasks such as language modeling [35], machine translation [36], question answering [37], and text classification [38]. 我々のモチベーションは、言語モデリング[35]、機械翻訳[36]、質問応答[37]、テキスト分類[38]など、さまざまなNLPタスクにおける自己注意の優れたパフォーマンスから来ています。 0.77
We also note that a recently proposed method [39] for quantum state tomography, an important task in quantum computing, adopts the self-attention mechanism and achieves decent results. また,最近提案された量子状態トモグラフィ法[39]は,量子コンピューティングにおいて重要なタスクであり,自己着脱機構を採用し,良好な結果を得る。 0.82
In each quantum self-attention layer of QSANN, we first encode the inputs into high-dimensional quantum states, then apply PQCs on them according to the layout of the self-attention neural networks, and finally adopt a Gaussian projected quantum self-attention (GPQSA) to obtain the output effectively. QSANNの各量子自己保持層において、まず入力を高次元量子状態にエンコードし、次に自己アテンションニューラルネットワークのレイアウトに応じてPQCを適用し、最終的にガウス射影量子自己アテンション(GPQSA)を採用して出力を効果的に得る。 0.78
To evaluate the performance of our model, we conduct numerical experiments of text classification with different data sets. モデルの性能を評価するため,異なるデータセットを用いたテキスト分類の数値実験を行った。 0.88
The results show that QSANN outperforms the currently best known QNLP model as well as a simple classical self-attention neural network on test accuracy, implying potential quantum advantages of our method. その結果,qsannはqnlpモデルに勝っており,またテスト精度に関する従来のニューラルネットワークよりも優れており,この手法の量子効果が示唆されている。 0.77
Our contributions are multi-fold: 私たちの貢献は多岐にわたる。 0.46
• Our proposal is the first QNLP algorithm with a detailed circuit implementation scheme based on the self-attention mechanism. •提案手法は,自己認識機構に基づく詳細な回路実装方式を用いた最初のQNLPアルゴリズムである。 0.78
This method can be implemented on NISQ devices and is more practicable on large data sets compared with previously known QNLP methods based on syntactic analysis. この手法はNISQデバイス上で実装可能であり、構文解析に基づくQNLP法と比較して、大規模なデータセットでより実践可能である。 0.69
• In QSANN, we introduce the Gaussian projected quantum self-attention, which can efficiently dig out the correlations between words in high-dimensional quantum feature space. • QSANNでは,高次元の量子特徴空間における単語間の相関関係を効率的に探索できる,ガウス射影量子自己アテンションを導入する。 0.83
Furthermore, visualization of self-attention coefficients on text classification tasks confirms its ability to focus on the most relevant words. さらに,テキスト分類タスクにおける自己認識係数の可視化により,最も関連性の高い単語に注目する能力が確認された。 0.65
• We experimentally demonstrate that QSANN outperforms existing QNLP methods based on syntactic analysis [40] and simple classical self-attention neural networks on several public data sets for text classification. • qsannがテキスト分類のためのいくつかの公開データセット上で,構文解析 [40] と単純な古典的自己照査ニューラルネットワークに基づく既存のqnlp手法よりも優れていることを実験的に実証する。 0.60
Numerical results also imply that QSANN is resilient to quantum noise. 数値的な結果はQSANNが量子ノイズに耐性があることを示唆している。 0.59
2 2 0.42
英語(論文から抽出)日本語訳スコア
1.1 Preliminaries and Notations 1.1.1 Quantum Basis 1.1 予備と表記 1.1.1 量子基底 0.58
Here, some basic concepts about quantum computing necessary for this paper are briefly introduced (for more details, see [41]). ここでは、この論文に必要な量子コンピューティングに関する基本的な概念をいくつか紹介する(詳細は[41]を参照)。 0.79
In quantum computing, quantum information is usually represented by n-qubit (pure) quantum states over Hilbert space C2n. 量子コンピューティングにおいて、量子情報は通常、ヒルベルト空間 C2n 上の n-qubit (pure) 量子状態によって表される。 0.70
In particular, a pure quantum state could be represented by a unit vector |ψ(cid:105) ∈ C2n (or (cid:104)ψ|), where the ket notation |(cid:105) denotes a column vector and the bra notation (cid:104)ψ| = |ψ(cid:105)† with † referring to conjugate transpose denotes a row vector. 特に、純粋な量子状態は単位ベクトル |ψ(cid:105) ∈ c2n (または (cid:104)ψ|) で表現することができ、ここではケト記法 |(cid:105) は列ベクトルを表し、ブラ記法 (cid:104)ψ| = |ψ(cid:105) は共役転置子を意味する。 0.77
The evolution of a pure quantum state |ψ(cid:105) is mathematically described by applying a quantum circuit (or a quantum gate), i.e., |ψ(cid:48)(cid:105) = U |ψ(cid:105), where U is the unitary operator (matrix) representing the quantum circuit and |ψ(cid:48)(cid:105) is the quantum state after evolution. 純粋な量子状態 |ψ(cid:105) の進化は、量子回路(または量子ゲート)、すなわち |ψ(cid:48)(cid:105) = u |ψ(cid:105) を適用することによって数学的に記述される。
訳抜け防止モード: 純粋量子状態の進化 (cid:105 ) は量子回路を適用することによって数学的に記述される。 あるいは量子ゲート(英語版))、すなわち | (cid:48)(cid:105 ) = U | (cid:105 ) ここで U は量子回路を表すユニタリ作用素 (行列 ) であり、 | (cid:48)(cid:105 ) は進化後の量子状態である。
0.79
Common single-qubit quantum gates include Hadamard gate H and Pauli operators 一般的な単一量子ビット量子ゲートには、ハダマールゲート h とパウリ作用素がある。 0.50
(cid:20)1 1 (出典:20)1-1 0.53
(cid:21) 1√ 2 (出典:21) 1√ 2 0.56
(cid:20)0 1 (cid:21) (cid:20)01(cid:21) 0.42
1 0 (cid:20)0 −i (cid:21) 1 0 (cid:20)0 −i(cid:21) 0.40
i 0 (cid:20)1 0 私は0 (cid:20)1 0 0.59
(cid:21) H := (出典:21) H := 0.55
, Y := , X := , Y := , X := 0.43
1 −1 0 −1 and their corresponding rotation gates denoted by RP (θ) := exp(−iθP/2) = cos θ 2 P , where the rotation angle θ ∈ [0, 2π) and P ∈ {X, Y, Z}. 1 −1 0 −1 と対応する回転ゲートは rp (θ) := exp(−iθp/2) = cos θ 2 p で表され、回転角 θ ∈ [0, 2π) と p ∈ {x, y, z} が表される。 0.67
Multiple-qubit quantum gates mainly include, in this paper, the identity gate I, the CNOT gate and the tensor product of single-qubit gates, e g , Z ⊗ Z, Z ⊗ I, Z⊗n and so on. 多重量子ゲート(multiple-qubit quantum gate)は、主に、単位ゲート i, cnotゲート、シングルキュービットゲートのテンソル積、eg,z,z,i,z,nなどを含む。 0.64
Quantum measurement is a way to extract classical information from a quantum state. 量子計測は、量子状態から古典的情報を抽出する方法である。 0.84
For instance, given a quantum state |ψ(cid:105) and an observable O, one could design quantum measurements to obtain the information (cid:104)ψ| O |ψ(cid:105). 例えば、量子状態 | (cid:105) と観測可能な O が与えられたとき、その情報を得るために量子測度を設計することができた(cid:104)。 0.82
Within this work, we focus on the hardware-efficient Pauli measurements, i.e., setting O as Pauli operators or their tensor products. この作業では、ハードウェア効率のよいpauli測定、すなわちoをpauli演算子またはそれらのテンソル積として設定することに焦点を当てます。 0.48
For instance, we could choose Z1 = Z ⊗ I⊗(n−1), X2 = I ⊗ X ⊗ I⊗(n−2), Z1Z2 = Z ⊗ Z ⊗ I⊗(n−2), etc., with n qubits in total. 例えば、Z1 = Z は I は I であり、X2 = I は X は I である、Z1Z2 = Z は Z は Z は Z は Z の I は I の n である、などを選ぶことができる。 0.72
2 I−i sin θ 2 I-i sin θ 0.37
, Z := (1) , Z := (1) 0.42
1.1.2 Text Classification 1.1.2 テキスト分類 0.56
As one of the central and basic tasks in NLP field, the text classification is to assign a given text sequence to one of the predefined categories. NLPフィールドにおける中心的および基本的なタスクの1つとして、テキスト分類は、予め定義されたカテゴリの1つに与えられたテキストシーケンスを割り当てることである。
訳抜け防止モード: nlp分野の中心的かつ基本的なタスクの1つとして テキストの分類は 予め定義されたカテゴリの1つに所定のテキストシーケンスを割り当てる。
0.80
Examples of text classification tasks considered in this paper include topic classification and sentiment analysis. 本稿では,トピック分類や感情分析などのテキスト分類タスクについて考察する。 0.72
A commonly adopted approach in machine learning is to train a model with a set of pre-labeled sequences. 機械学習における一般的なアプローチは、事前ラベル付きシーケンスのセットでモデルをトレーニングすることである。 0.72
When fed a new sequence, the trained model will be able to predict its category based on the experience learned from the training data set. 新しいシーケンスをフィードすると、トレーニングデータセットから学んだ経験に基づいて、トレーニングされたモデルがそのカテゴリを予測することができる。 0.74
1.1.3 Self-Attention Mechanism In a self-attention neural network layer [36], the input data {xs ∈ Rd}S s=1 are linearly mapped, via three weight matrices, i.e., query Wq ∈ Rd×d, key Wk ∈ Rd×d and value Wv ∈ Rd×d, to three parts Wqxs, Wkxs, Wvxs, respectively, and by applying inner product on the query and key parts, the output is computed as 1.1.3 自己注意機構 自己注意型ニューラルネットワーク層[36]では、入力データ {xs ∈ Rd}S s=1 を3つの重み行列、すなわちクエリ Wq ∈ Rd×d、キー Wk ∈ Rd×d および値 Wv ∈ Rd×d を介して、それぞれ3つの部分 Wqxs、Wkxs、Wvxs に線形にマッピングし、クエリおよびキー部分に内部積を適用することにより、出力を演算する。 0.85
S(cid:88) ys = S(第88回) ys = 0.52
as,j · Wvxj as,j · Wvxj 0.43
with as,j = (cid:80)S ex(cid:62) s W (cid:62) l=1 ex(cid:62) と as,j = (cid:80)S ex(cid:62) s W (cid:62) l=1 ex(cid:62) 0.47
q Wkxj s W (cid:62) q Wkxj s W (cid:62) 0.47
q Wkxl , (2) q Wkxl , (2) 0.43
where as,j denote the self-attention coefficients. ここで、jは自己注意係数を表します。 0.48
j=1 3 j=1 3 0.36
英語(論文から抽出)日本語訳スコア
Figure 1: Sketch of a quantum self-attention layer (QSAL). 図1:qsal(quantum self-attention layer)のスケッチ。 0.65
On quantum devices, the classical inputs {y(l−1) } are used as the rotation angles of quantum ansatzes (purple dashed boxes) to encode them into their corresponding quantum states {|ψs(cid:105)}. 量子デバイスでは、古典入力 {y(l−1) } は量子アンサットの回転角として使われ、対応する量子状態 {|ψs(cid:105)} にエンコードされる。 0.75
Then for each state, there are three different classes of ansatzes (red dashed boxes) need to be executed, where the top two classes denote the query and key parts, and the bottom one denotes the value part. 次に、各状態に対して、3つの異なるansatzeクラス(red dashed box)が実行され、上位2つのクラスがクエリとキー部分を表し、下位1が値部分を表す。 0.72
On classical computers, the measurement outputs of the query part (cid:104)Zq(cid:105) s and the key part (cid:104)Zk(cid:105) j are computed through a Gaussian function to obtain the quantum self-attention coefficients αs,j (green circles); we calculate classically weighted sums of the measurement outputs of the value part (small colored squares) and add the inputs to get the outputs {y(l) 古典コンピュータでは、クエリ部(cid:104)Zq(cid:105) とキー部(cid:104)Zk(cid:105) jの測定出力をガウス関数で計算し、量子自己アテンション係数αs,j(緑の円)を得る。
訳抜け防止モード: 古典コンピュータにおけるクエリ部(cid:104)zq(cid:105) の測定結果 そしてキー部分(cid:104)zk(cid:105) jはガウス関数によって計算される 量子自己を得るには -注意係数αs,j(緑円);値部(小色二乗)の測定出力の古典的重み付け和を算出する。 入力を加えて出力を y(l) にします
0.87
s }, where the weights are the normalized coefficients ˜αs,j, cf. s } ここで、重みは正規化係数 sαs,j,cf である。 0.72
Eq (7). eq (7) である。 0.78
s 2 Method In this section, we will introduce the QSANN in detail, which mainly consists of quantum selfattention layer (QSAL), loss function, analytical gradients and analysis. s 2 方法 本稿では、量子自己保持層(QSAL)、損失関数、解析勾配、分析からなるQSANNについて詳しく紹介する。 0.46
2.1 Quantum Self-Attention Layer In the classical self-attention mechanism [36], there are mainly three components (vectors), i.e., queries, keys and values, where queries and keys are computed as weights assigned to correspondInspired by this mechanism, in QSAL we design the quantum ing values to obtain final outputs. 2.1 量子自己アテンション層 古典的自己アテンション機構 [36] では、主に3つの構成要素(クエリ、キー、値)があり、クエリとキーは、このメカニズムに触発された対応値に割り当てられた重みとして計算され、qsalでは量子ing値を設計して最終的な出力を得る。 0.68
analogs of these components. これらの成分のアナログです 0.71
The overall picture of QSAL is illustrated in Fig 1. QSALの全体像を図1に示す。 0.61
∈ Rd} of the l-th QSAL, we first use a quantum ansatz Uenc L-th QSAL の ∈ Rd} において、まず量子アンザッツ Uenc を用いる。 0.75
For the classical input data {y(l−1) 古典的入力データ {y(l−1) について 0.74
s to encode them into an n-qubit quantum Hilbert space, i.e., )H⊗n |0n(cid:105) , s n-量子ビット量子ヒルベルト空間、すなわち ) h'n |0n(cid:105) にエンコードする。 0.56
|ψs(cid:105) = Uenc(y(l−1) |s(cid:105) = Uenc(y(l−1) 0.41
s 1 ≤ s ≤ S, s 1 ≤ s ≤ s である。 0.59
(3) 4 (3) 4 0.42
英語(論文から抽出)日本語訳スコア
where H denotes the Hadamard gate and S denotes the number of input vectors in a data sample. ここで H はアダマールゲートを表し、S はデータサンプルの入力ベクトルの数を表す。 0.72
Then we use another three quantum ansatzes, i.e., Uq, Uk, Uv with parameters θq, θk, θv, to represent the query, key and value parts, respectively. 次に、パラメータ θq, θk, θv を持つ Uq, Uk, Uv という3つの量子アンサーゼを用いて、それぞれクエリ、キー、値の部分を表す。 0.78
Concretely, for each input state |ψs(cid:105), we denote by (cid:104)Zq(cid:105) s and (cid:104)Zk(cid:105) s the Pauli-Z1 measurement outputs of the query and key parts, respectively, where 具体的には、各入力状態 |ψs(cid:105) について (cid:104)zq(cid:105) s と (cid:104)zk(cid:105) で表され、それぞれクエリとキー部分の pauli-z1 測定出力を示す。 0.70
The measurement outputs of the value part are represented by a d-dimensional vector 値部分の測定出力は、d次元ベクトルで表される 0.81
(4) q (θq)Z1Uq(θq)|ψs(cid:105) , (cid:104)Zq(cid:105) s := (cid:104)ψs| U† † k(θk)Z1Uk(θk)|ψs(cid:105) . (4) q (θq)z1uq(θq)|ψs(cid:105) , (cid:104)zq(cid:105) s := (cid:104)ψs| u ~ k(θk)z1uk(θk)|ψs(cid:105) である。 0.56
(cid:104)Zk(cid:105) s := (cid:104)ψs| U (cid:3)(cid:62) (cid:104)Zk(cid:105) s := (cid:104)*s| U (cid:3)(cid:62) 0.38
os :=(cid:2)(cid:104)P1(c id:105)s os :=(cid:2)(cid:104)P1(c id:105)s 0.40
(cid:104)P2(cid:105) s (cid:104)P2(cid:105) 0.40
(cid:104)Pd(cid:105) s (cid:104)Pd(cid:105) 0.44
··· where (cid:104)Pj(cid:105) s = (cid:104)ψs| U able. ··· ここで (cid:104)pj(cid:105) s = (cid:104)ψs| u である。 0.48
(5) † v (θv)PjUv(θv)|ψs(cid:105). (5) v (θv)pjuv(θv)|ψs(cid:105) である。 0.70
Here, each Pj ∈ {I, X, Y, Z}⊗n denotes a Pauli observs ∈ Rd} of the l-th QSAL are ここで、各 pj ∈ {i, x, y, z},n は l 番目の qsal の pauli observs ∈ rd} を表す。 0.76
Finally, by combining Eqs. 最後に、Eqsを組み合わせる。 0.79
(4) and (5), the classical output {y(l) (4) と (5) は古典的な出力 {y(l) である 0.91
, computed as follows: , 以下に計算する。 0.54
s = y(l−1) y(l) s = y(l−1) y(l) 0.50
s + S(cid:88) s + S(第88回) 0.49
j=1 ˜αs,j · oj, j=1 は、αs、j · oj。 0.47
(6) where ˜αs,j denotes the normalized quantum self-attention coefficient between the s-th and the j-th input vectors and is calculated by the corresponding query and key parts: (6) ここで、s-th と j-th 入力ベクトルの間の正規化量子自己アテンション係数を表し、対応するクエリとキー部分によって計算される。 0.56
˜αs,j = with は、αs,j = と 0.63
αs,j := e−((cid:104)Zq(cid:105 )s−(cid:104)Zk(cid:105) j )2 αs,j := e−((cid:104)Zq(cid:105 )s−(cid:104)Zk(cid:105) j )2 0.41
. (7) αs,j(cid:80)S . (7) αs,j(cid:80)S 0.43
m=1 αs,m Here in Eq (6), we adopt a residual scheme when computing the output, which is analogous to [36]. m=1αs,m ここでは、Eq (6) において、出力を計算する際に残留スキームを採用し、[36] に類似する。 0.56
2.1.1 Gaussian Projected Quantum Self-Attention 2.1.1 ガウス射影量子自己アテンション 0.56
When designing a quantum version of self-attention, a natural and direct extension of the inner-product † self-attention to consider is αs,j := |(cid:104)ψs| U q Uk |ψj(cid:105)|2. 自己アテンションの量子版を設計するとき、内積の自然な直接拡張は αs,j := |(cid:104)ψs| u q uk |ψj(cid:105)|2 である。 0.75
However, due to the unitary nature of quantum † q Uk can be regarded as rotating |ψs(cid:105) by an angle, which makes it difficult for |ψs(cid:105) to circuits, (cid:104)ψs| U simultaneously correlate those |ψj(cid:105) that are far away. しかし、量子式 q uk のユニタリ性により、回転 |ψs(cid:105) を角度で考えることができ、 |ψs(cid:105) を回路に関連付けることは難しく、 (cid:104)ψs| u は遠く離れた |ψj(cid:105) を同時に関連付ける。 0.70
In a word, this direct extension is not suitable or reasonable for working as the quantum self-attention. 言い換えれば、この直接拡張は量子自己アテンションとして働くのに適切あるいは妥当ではない。 0.68
Instead, the particular quantum self-attention proposed in Eq (7), which we call Gaussian projected quantum self-attention (GPQSA), could overcome the above drawback. 代わりに、Eq (7) で提案された特定の量子自己アテンションは、ガウス射影量子自己アテンション (GPQSA) と呼ばれ、上記の欠点を克服することができた。 0.64
In GPQSA, the states Uq |ψs(cid:105) (and Uk |ψj(cid:105)) in large quantum Hilbert space are projected to classical representations (cid:104)Zq(cid:105) s (and (cid:104)Zk(cid:105) j) in one-dimensional1 classical space via quantum measurements, and a Gaussian function is applied to these classical representations. GPQSAでは、大きな量子ヒルベルト空間における状態 Uq | s(cid:105) (および Uk | j(cid:105)) は古典的表現 (cid:104)Zq(cid:105) s (and (cid:104)Zk(cid:105) j) に量子測度を通して一次元の古典的空間において射影され、ガウス函数はこれらの古典的表現に適用される。 0.72
As Uq and Uk are separated, it’s pretty easier to correlate |ψs(cid:105) to any |ψj(cid:105), making GPQSA more suitable to serve as a quantum self-attention. UqとUkは分離されているため、任意の | j(cid:105) と | s(cid:105) を関連付けるのがかなり簡単で、GPQSA は量子自己認識としてより適している。 0.66
Here, we utilize the Gaussian function [42] mainly because it contains infinite-dimensional feature space and is well-studied in classical machine learning. ガウス関数 [42] は主に無限次元の特徴空間を持ち、古典的機械学習でよく研究されている。 0.72
Numerical experiments also verify our choice of Gaussian function. 数値実験はガウス函数の選択も検証する。 0.68
We also note that other choices of building the quantum self-attention are also worth a future study. また、量子自己注意を構築する他の選択肢も将来の研究に値することに留意する。 0.69
1Multi-dimension is also possible by choosing multiple measurement results, like the value part. 1Multi次元は、値部分のように複数の測定結果を選択することでも可能である。 0.66
5 5 0.42
英語(論文から抽出)日本語訳スコア
Rx(θ0,1) Ry(θ0,5) Rx(θ0,1) Ry(θ0,5) 0.37
Rx(θ0,2) Ry(θ0,6) Rx(θ0,2) Ry(θ0,6) 0.37
Rx(θ0,3) Ry(θ0,7) Rx(θ0,3) Ry(θ0,7) 0.37
Rx(θ0,4) Ry(θ0,8) Rx(θ0,4) Ry(θ0,8) 0.37
• • • Ry(θ1,1) • • • Ry(θ1,1) 0.41
Ry(θ1,2) ry (複数形 rys) 0.39
Ry(θ1,3) Ry(θ1,4) Ry(θ1,3) Ry(θ1,4) 0.37
• ×D Figure 2: The ansatz used in QSANN. • ×D 図2:QSANNで使用されるアンザッツ。 0.53
The first two columns denote the Rx-Ry rotations on each single-qubit subspace, then followed by repeated CNOT gates and single-qubit Ry rotations. 最初の2つの列は、各1キュービット部分空間上のRx-Ry回転を表し、続いて繰り返しCNOTゲートと1キュービットRy回転を示す。
訳抜け防止モード: 最初の2つの列は rx - ry 回転を表す。 その後、連続するcnotゲートとシングル-キュービットry回転が続く。
0.74
The block circuit in the dashed box is repeated D times to enhance the expressive power of the ansatz. 破断箱内のブロック回路は、アンザッツの表現力を高めるために、繰り返しDされる。 0.60
Figure 3: Sketch of QSANN, where a sequence of classical vectors {xs} firstly goes through L QSALs to s }, then through the average operation, and finally obtain the corresponding sequence of feature vectors {y(L) through the fully-connected layer for the binary prediction task. 図3: QSANN のスケッチでは、古典ベクトル {xs} の列が L QSALs から s } に進み、次に平均演算を経て、最後に二項予測タスクの完全連結層を通して特徴ベクトル {y(L) の列を得る。 0.71
Remark. During the preparation of this manuscript as well as after submitting our work to a peerreview conference in Sep 2021, we became aware that Ref. コメント。 この原稿の作成中、またsep 2021のピアレビュー会議に私たちの作品を提出した後、私たちはrefに気づきました。 0.53
[43] also made initial attempts to employ the attention mechanism in QNNs. また[43]では,QNNにおける注意機構の活用も試みている。 0.70
In that work, the authors mentioned a possible quantum extension towards a quantum Transformer where the straightforward inner-product self-attention is adopted. その研究の中で、著者らは量子変換器への量子拡張の可能性について言及した。 0.63
As discussed above, the inner-product self-attention may not be reasonable for dealing with quantum data. 上述したように、内積自己注意は量子データを扱うには妥当ではないかもしれない。 0.58
In this work, we present that GPQSA is more suitable for the quantum version of self-attention and show the validity of our method via numerical experiments on several public data sets. 本研究では,GPQSAが自己注意の量子バージョンに適していることを示し,いくつかの公開データセット上で数値実験を行い,本手法の有効性を示す。 0.78
In general, an ansatz, a.k.a. parameterized quantum circuit [25], has the form U (θ) =(cid:81) 一般に、アンザッツ、すなわちパラメータ化量子回路[25]は、U(θ) =(cid:81)の形をしている。 0.80
2.2 Ansatz Selection In QSAL, we employ multiple ansatzes for the various components, i.e., data encoding, query, key and value. 2.2 ansatz選択 qsalでは、データエンコーディング、クエリ、キー、値など、さまざまなコンポーネントに複数のansatzeを使用します。 0.66
Hence, we give a brief review about it here. ですから、ここで簡単なレビューを行います。 0.61
j Uj(θj)Vj, where Uj(θj) = exp(−iθjPj/2) and Vj denotes a fixed operator such as Identity, CNOT and so on. j Uj(θj)Vj, ここで Uj(θj) = exp(−iθjPj/2) と Vj は Identity, CNOT などの固定作用素を表す。 0.85
Here, Pj denotes a Pauli operator. ここで pj はパウリ作用素を表す。 0.57
Due to the numerous choices of the form of Vj, various kinds of ansatzes can be used. vjの形式は多岐にわたるため、様々な種類のアンサtzeが使用できる。 0.60
In this paper, we use the strongly entangled ansatz [23] shown in Fig 2 in QSAL. 本稿では、QSALの図2に示す強い絡み合ったアンサッツ[23]を用いる。 0.66
This circuit has n(D + 2) parameters in total for n qubits and D repeated layers. この回路は n 量子ビットと d 反復層で合計 n(d + 2) のパラメータを持つ。 0.79
6 6 0.43
英語(論文から抽出)日本語訳スコア
2.3 Loss Function Consider the data set D := {((m)x1, (m)x2, . 2.3 損失関数はデータセット d := {((m)x1, (m)x2, を考える。 0.87
. . , (m)xSm), (m)y}Ns m=1, where there are in total Ns sequences or samples and each has Sm words with a label (m)y ∈ {0, 1}. . . , (m)xSm), (m)y}Ns m=1, ここでは全Ns配列やサンプルが存在し、それぞれがラベル (m)y ∈ {0, 1} を持つSmワードを持つ。 0.63
Here, we assume each word is embedded as a d-dimensional vector, i.e., (m)xs ∈ Rd. ここで、各単語は d-次元ベクトル、すなわち (m)xs ∈ Rd として埋め込まれていると仮定する。 0.77
The whole procedure of QSANN is depicted in Fig 3, which mainly consists of L QSALs to extract hidden features and one fully-connected layer to complete the binary prediction task. QSANNの手順は、主に隠れた特徴を抽出するL QSALとバイナリ予測タスクを完了させる1つの完全連結層で構成されている。 0.61
Here, the mean squared error [44] is employed as the loss function: ここでは損失関数として平均二乗誤差[44]を用いる。 0.74
L (Θ, w, b; D) = L ( , w, b; D) = 0.35
1 2Ns m=1 Ns(cid:88) 1 2N m=1。 Ns(第88回) 0.49
(cid:16)(m) ˆy − (m)y (cid:16)(m) sy − (m)y 0.45
(cid:17)2 (cid:16) (出典:17)2 (出典:16) 0.70
+ RegTerm, (cid:80)Sm +条例 (cid:80)sm 0.40
(cid:17) with w ∈ Rd where the predicted value (m) ˆy is defined as (m) ˆy := σ and b ∈ R denoting the weights and bias of the final fully-connected layer, Θ denoting all parameters in the ansatz, σ denoting the sigmoid activation function and ‘RegTerm’ being the regularization term to avoid overfitting in the training process. (cid:17) w ∈ Rd では、予測値 (m) y は (m) := σ と b ∈ R と定義され、最終完全連結層の重みと偏りを表し、 σ はアンザッツ内の全てのパラメータを表し、σ はシグモイド活性化関数を表し、'RegTerm' は訓練過程における過度な適合を避ける正規化項である。 0.63
w(cid:62) · 1 w(cid:62) · 1 0.46
(m)y(L) s + b (m)y(L) s + b である。 0.51
s=1 Sm Combining Eqs. s=1。 Sm Eqsの組み合わせ。 0.56
(3) - (7), we know each output of QSAL is dependent on all its inputs, i.e., (3) - (7) QSALの各出力がすべての入力に依存することを知っています。 0.84
(8) (9) (10) (8) (9) (10) 0.42
(m)y (l) s := (m)y (l)s := 0.42
(m)y (l) s q , θ(l) θ(l) (m)y (l)s q , θ(l) θ(l) 0.42
k , θ(l) = (m)y(l−1) k , θ(l) = (m)y(l−1) 0.45
s + ˜α(l) s,j s + ~α(l) s,j 0.58
(cid:16) Sm(cid:88) (出典:16) Sm (cid:88) 0.54
j=1 (cid:17) k ;{(m)y(l−1) j=1 (cid:17) k ;{(m)y(l−1) 0.39
}Sm i=1 ※Sm i=1 である。 0.26
i v ;{(m)y(l−1) (cid:16) 私は v ;{(m)y(l−1) (cid:16) 0.51
i q , θ(l) θ(l) 私は q , θ(l) θ(l) 0.48
(cid:17) · o(l) (出典:17)· o(l) 0.86
j (cid:16) }Sm j (出典:16) ※Sm 0.44
i=1 v ; i=1 である。 v ; 0.37
(m)y(l−1) θ (m)y(l−1)θ 0.48
(l) j (cid:17) (l) j (cid:17) 0.41
, where (m)y(0) , ここで (m)y(0) 0.64
s = (m)xs and 1 ≤ s ≤ Sm, 1 ≤ l ≤ L. Here, the regularization term is defined as s = (m)xs と 1 ≤ s ≤ Sm, 1 ≤ l ≤ L である。
訳抜け防止モード: s = (m)xs と 1 ≤ s ≤ Sm, 1 ≤ l ≤ L である。 正規化という用語は
0.79
RegTerm := regterm := 0.31
(cid:107)w(cid:107)2 + (cid:107)w(cid:107)2 + 0.42
λ 2d γ 2d (cid:107) (m)xs(cid:107)2, λ 2d γ2d (cid:107) (m)xs(cid:107)2, 0.44
Sm(cid:88) Sm (cid:88) 0.41
s=1 where λ, γ ≥ 0 are two regularization coefficients. s=1。 ここで λ, γ ≥ 0 は二つの正規化係数である。 0.56
With the loss function defined in Eq (8), we can optimize its parameters by (stochastic) gradientdescent [45]. 損失関数を Eq (8) で定義すれば、パラメータを(確率的に)勾配的[45] で最適化できる。 0.80
The analytical gradient analysis can be found in the Appendix. 解析的勾配解析はAppendixで見ることができる。 0.72
Finally, with the above preparation, we could train our QSANN to get the optimal (or sub-optimal) parameters. 最後に、上記の準備により、最適な(または準最適)パラメータを得るためにQSANNをトレーニングすることができます。 0.68
See Algorithm 1 for details on the training procedure. トレーニング手順の詳細はアルゴリズム1を参照。 0.73
We remark that if the loss converges during training or the maximum number of iterations is reached, the optimization stops. トレーニング中に損失が収束したり、イテレーションの最大数に達すると、最適化が停止する。 0.58
2.4 Analysis of QSANN According to the definition of the Quantum Self-Attention Layer, for a sequence with S words, we need S(d + 2) Pauli measurements to obtain the d-dimensional value vectors as well as the queries and keys for all words from the quantum device. 2.4QSANNの解析 量子自己保持層の定義によれば、Sワードのシーケンスでは、量子デバイスからすべての単語に対するクエリとキーだけでなく、d次元の値ベクトルを得るためにS(d + 2) Pauli測定が必要である。
訳抜け防止モード: 2.4 量子自己注意層の定義によるQSANNの分析(一般講演) S 語を含む列に対して、量子デバイスから d-次元値ベクトルと全ての単語に対するクエリとキーを得るには、S(d + 2 ) Pauli 測定が必要である。
0.90
After that, we need to compute S2 self-attention coefficients for all S2 pairs of words on the classical computer. その後、古典的コンピュータ上で全てのS2単語に対してS2自己注意係数を計算する必要がある。 0.73
In general, QSANN takes advantage of quantum devices’ efficiency in processing high-dimensional data while outsourcing some calculations to classical computers. 一般に、QSANNは量子デバイスの高次元データの処理効率を生かし、計算の一部を古典的なコンピュータにアウトソーシングする。 0.69
This approach keeps the quantum circuit depth low and thus makes QSANN robust to low-level noise common in near-term quantum devices. このアプローチは量子回路深さを低く保ち、QSANNを短期量子デバイスで一般的な低レベルノイズに対して堅牢にする。 0.69
This beneficial attribute is further verified by numerical results in the next section, where we test QSANN against noise. この有益な属性は、次のセクションでQSANNをノイズに対してテストする数値結果によってさらに検証される。 0.72
7 7 0.42
英語(論文から抽出)日本語訳スコア
Algorithm 1 QSANN training for text classification Input: The training data set D := {((m)x1, (m)x2, . Algorithm 1 QSANN training for text classification Input: The training data set D := {((m)x1, (m)x2, . 0.45
. . , (m)xSm), (m)y}Ns Output: The final ansatz parameters Θ∗, weight w∗, b∗ 1: Initialize the ansatz parameters Θ, weight w from Gaussian distribution N(0, 0.01) and the bias b . . , (m)xSm), (m)y}Ns 出力: 最終的なアンザッツパラメータ s∗, 重み w∗, b∗ 1: ガウス分布 N(0, 0.01) のアンザッツパラメータ s, 重み w とバイアス b を初期化する 0.62
QSALs L and optimization procedure QSALと最適化手順 0.77
m=1, EP OCH, number of m=1, ep och, 数 0.83
to 0. 2: for ep = 1, . . . , EP OCH do 3: 4: 0であった。 2: for ep = 1, . , EP OCH do 3: 4: 0.49
for m = 1, . . . , Ns do m = 1 に対して、N は成り立つ。 0.75
Apply the encoder ansatz Uenc to each of エンコーダ ansatz uenc をそれぞれに適用する 0.75
(m)xs to get the corresponding quantum state |ψs(cid:105), cf. (m)xs は対応する量子状態 | s(cid:105), cf を得る。 0.86
(3). Apply Uq and Uk to |ψs(cid:105) and measure the Pauli-Z expectations to get (cid:104)Zq(cid:105) s,(cid:104)Zk(cid:10 5)s, cf. (3). Uq と Uk を | s (cid:105) に適用し、 (cid:104)Zq(cid:105) s, (cid:104)Zk(cid:105) s, cf とする。 0.56
(4), and then calculate the quantum self-attention coefficients αs,j, cf. (4) を計算し、量子自己アテンション係数 αs,j,cf を計算する。 0.80
(7). Apply Uv and measure a series of Pauli expectations to get os, cf. (7). uv を適用して,os と cf を取得するための pauli の一連の期待値を測定する。 0.47
(5), and then compute the output {y (5) を計算し、次に出力 {y 0.85
(l) Repeat 4-6 L times to get the output {y(L) Average {y(L) Calculate the mean squared error in (8) and update the parameters through the optimization procedure. (l)出力 {y(L) 平均 {y(L) 平均 {y(L) 平均二乗誤差を (8) で計算し、最適化手順でパラメータを更新する。
訳抜け防止モード: (l) Repeat 4 - 6 L times to get the output { y(L ) Average { y(L ) Calculate the mean squared error in (8) パラメータを最適化手順で更新する。
0.83
s } and through a fully-connected layer to obtain the predicted value (m) ˆy. s } と完全に接続された層を通して予測値 (m) y を得る。 0.76
s } of the l-th QSAL, cf. s } のl-th QSAL, cf。 0.38
(6). s } of the L-th QSAL. (6). L-th QSAL の s } である。 0.57
5: 6: 7: 8: 9: 5: 6: 7: 8: 9: 0.42
end for if the stopping condition is met then 停止条件が満たされた場合の終了 0.67
10: 11: 12: end if 13: 14: end for 10: 11: 12: end if 13: 14: end for 0.42
Break. In short, our QSANN first encodes words into a large quantum Hilbert space as the feature space and then projects them back to low-dimensional classical feature space by quantum measurement. 休憩 簡単に言うと、私たちのQSANNはまず単語を特徴空間として大きな量子ヒルベルト空間にエンコードし、量子測定によってそれらを低次元の古典的特徴空間に投影する。 0.49
Recent works have proved rigorous quantum advantages on some classification tasks by utilizing high-dimensional quantum feature space [46] and projected quantum models [47]. 最近の研究は、高次元量子特徴空間 [46] と射影量子モデル [47] を利用して、いくつかの分類タスクにおいて厳密な量子優位性を証明している。 0.64
Thus, we expect that our QSANN might also have the potential advantage of digging out some hidden features that are classically intractable. したがって、当社のQSANNは、古典的に難解な隠れた特徴を掘り下げる潜在的な利点を期待しています。 0.74
In the following section, we carry out numerical simulations of QSANN on several data sets to evaluate its performance on binary text classification tasks. 以下の節では、いくつかのデータセット上でQSANNの数値シミュレーションを行い、バイナリテキスト分類タスクの性能を評価する。 0.78
3 Numerical Results In order to demonstrate the performance of our proposed QSANN, we have conducted numerical experiments on public data sets, where the quantum part was accomplished via classical simulation. 3つの数値結果 提案するQSANNの性能を実証するため,我々は,古典的なシミュレーションによって量子部が達成された公開データセットの数値実験を行った。 0.77
Concretely, we first exhibit the better performance of QSANN by comparing it with 具体的には、まずQSANNのパフォーマンスを比較して比較する。 0.73
i) the syntactic analysis-based quantum model [40] on two simple tasks, i.e., MC and RP, i) 2つの単純なタスク,すなわちmcとrpの構文解析に基づく量子モデル[40] 0.83
ii) the classical self-attention neural network (CSANN) and the naive method on three public sentiment analysis data sets, i.e., Yelp, IMDb and Amazon [48]. 二 古典的自己注意ニューラルネットワーク(CSANN)及び三つの世俗感情分析データセット(Yelp、IMDb、Amazon[48])に対するナイーブな方法 0.61
Then we show the reasonableness of our particular quantum self-attention GPQSA via visualization of self-attention coefficients. 次に,自己アテンション係数の可視化により,量子自己アテンションGPQSAの妥当性を示す。 0.65
Finally, the noisy experiments are performed to show the robustness of QSANN to noisy quantum channels. 最後に、QSANNのノイズ量子チャネルに対する堅牢性を示すためにノイズ実験を行う。 0.77
All the simulations and optimization すべてのシミュレーションと最適化 0.93
8 8 0.42
英語(論文から抽出)日本語訳スコア
Data set n 2 4 4 4 4 データセット n 2 4 4 4 4 4 4 0.93
MC RP Yelp IMDb Amazon MC RP Yelp IMDb Amazon 0.43
d Denc Dq/k/v 6 24 12 12 12 d Denc Dq/k/v 6 24 12 12 12 0.41
1 5 1 1 2 1 4 1 1 1 1 5 1 1 2 1 4 1 1 1 0.43
λ 0 0.2 0.2 0.002 0.2 λ 0 0.2 0.2 0.002 0.2 0.27
γ 0 0.4 0.2 0.002 0.2 γ 0 0.4 0.2 0.002 0.2 0.27
LR 0.008 0.008 0.008 0.002 0.008 LR 0.008 0.008 0.008 0.002 0.008 0.24
Table 1: Overview of hyper-parameter settings. 表1:ハイパーパラメータの設定の概要。 0.85
Here, ‘LR’ denotes learning rate, Denc, Dq, Dk, Dv denote the depths of the corresponding ansatzes and d = n(Denc + 2). ここで 'LR' は学習率を表し、Denc, Dq, Dk, Dv は対応する接尾辞の深さを表し、d = n(Denc + 2) である。 0.81
loop are implemented via Paddle Quantum2 on the PaddlePaddle Deep Learning Platform [49]. ループはPaddle Quantum2経由でPaddlePaddle Deep Learning Platform [49]上に実装されます。 0.79
3.1 Data Sets The two simple synthetic data sets we employed come directly from [40], which are named as MC and RP, respectively. 3.1 データセット われわれが採用した2つの単純な合成データセットは、それぞれ mc と rp という名前の [40] から来ている。 0.72
MC contains 17 words and 130 sentences (70 train + 30 development + 30 test) with 3 or 4 words each; RP has 115 words and 105 sentences (74 train + 31 test) with 4 words in each one. MCには17の単語と130の文(70の列車+30の開発+30のテスト)と3か4の単語があり、RPには115の単語と105の文(74の列車+31のテスト)と4の単語がある。 0.74
The other three data sets we use are real-world data sets available at [50] as the Sentiment Labelled Sentences Data Set. 他の3つのデータセットは、センチメントラベル付き文データセットとして[50]で利用可能な実世界のデータセットです。 0.75
These data sets consist of reviews of restaurants, movies and products selected from Yelp, IMDb and Amazon, respectively. これらのデータセットは、yelp、imdb、amazonから選択したレストラン、映画、製品のレビューで構成されている。 0.66
Each of the three data sets contains 1000 sequences, where half are labeled as ‘0’ (for negative) and the other half as ‘1’ (for positive). 3つのデータセットはそれぞれ1000のシーケンスを含み、半分は'0'(負の場合)、残りは'1'(正の場合)とラベル付けされている。 0.82
And each sequence contains several to dozens of words. 各シーケンスには数から数十の単語が含まれています 0.61
We randomly select 80% as training sequences and the rest 20% as test ones. トレーニングシーケンスとして80%,テストシーケンスとして残りの20%をランダムに選択します。 0.69
3.2 Experimental Setting In the experiments, we use a single self-attention layer for both QSANN and CSANN. 3.2 実験設定 実験では,QSANN と CSANN の両方に単一自己注意層を用いる。 0.86
As a comparison, we also perform the most straightforward method, i.e., averaging directly the embedded vectors of a sequence, followed by a fully-connected layer, which we call the ‘Naive’ method, on the three data sets of reviews. 比較として、最も簡単な方法、すなわち、シーケンスの埋め込みベクトルを直接平均化し、その後に完全に接続されたレイヤを、レビューの3つのデータセット上で‘Naive’メソッドと呼ぶ。 0.69
In QSANN, all the encoder, query, key and value ansatzes have the same qubit number and are constructed according to Fig 2, which are easily imiplementable on the NISQ devices. qsannでは、すべてのエンコーダ、クエリ、キー、値アンサットが同じキュービット数であり、fig2に従って構築され、nisqデバイスでは容易に分離可能である。
訳抜け防止モード: QSANNでは、すべてのエンコーダ、クエリ、キー、値アンサッチは同じqubit番号を持つ 図2に従って構築されており、NISQデバイスで容易に実装可能である。
0.67
Specifically, assuming the n-qubit encoder ansatz has Denc layers with n(Denc + 2) parameters, we could just set the dimension of the input vectors as d = n(Denc + 2). 具体的には、n-量子ビットエンコーダ ansatz が n(denc + 2) のパラメータを持つ denc 層を持つと仮定すると、入力ベクトルの次元は d = n(denc + 2) に設定できる。 0.83
The depths of the query, key and value ansatzes are set to the same, and are at most the polynomial size of the qubit number n. クエリの深さ、キーと値のアンサーゼは同一に設定され、少なくともキュービット数 n の多項式サイズである。 0.62
The actual hyper-parameter settings on different data sets are concluded in Table 1. 異なるデータセットの実際のハイパーパラメータ設定はテーブル1で終了する。 0.78
In addition, we choose Z1, . . . , Zn, X1, . . . , Xn, Y1, . . . , Yn as the Pauli observables Pj in Eq (5). さらに、Z1, . . , Zn, X1, . . . , Xn, Y1, . . . , Yn を Eq (5) のパウリ観測値 Pj として選ぶ。 0.82
For example, it is just required 3n observables when Denc = 1. 例えば、denc = 1 の場合、3n の可観測性が必要である。 0.65
However, if Denc > 1, we could also choose two-qubit observables Z12, Z23 and so on. しかし、denc > 1 の場合、2量子可観測性 z12, z23 などを選択することもできる。 0.72
All the ansatz parameters Θ and weight w are initialized from a Gaussian distribution with zero mean and 0.01 standard deviation, and the bias b is initialized to zero. アンサッツパラメータ θ とウェイト w は、平均 0 と 0.01 の標準偏差を持つガウス分布から初期化され、バイアス b は 0 に初期化される。 0.83
Here, the ansatz parameters are not initialized uniformly from [0, 2π) is mainly due to the residual ここで、アンサッツパラメータは[0, 2π) から一様に初期化されていないが、主な原因は残差である。 0.55
2https://github.com/ paddlepaddle/Quantum 2https://github.com/ paddlepaddle/Quantum 0.18
9 9 0.43
英語(論文から抽出)日本語訳スコア
Method # Paras TrainAcc(%) TestAcc(%) 方法 # Paras TrainAcc(%) TestAcc(%) 0.40
# Paras TrainAcc(%) TestAcc(%) # Paras TrainAcc(%) TestAcc(%) 0.42
MC RP DisCoCat [40] MC RP DisCoCat [40] 0.43
QSANN 40 25 QSANN 40 25 0.42
83.10 100.00 83.10 100.00 0.25
79.80 100.00 79.80 100.00 0.25
168 109 90.60 168 109 90.60 0.51
95.35±1.95 95.35±1.95 0.15
72.30 67.74±0.00 72.30 67.74±0.00 0.22
Table 2: Training accuracy and test accuracy of QSANN as well as DisCoCat on MC and RP tasks. 表2:QSANNのトレーニング精度とテスト精度、MCおよびRPタスク上のDisCoCat。 0.67
Method Naive CSANN QSANN 方法 ナイーブCSANN QSANN 0.54
Yelp IMDb Amazon Yelp IMDB Amazon 0.39
# Paras TestAcc (%) 82.78±0.78 83.11±0.89 84.79±1.29 # Paras TestAcc (%) 82.78±0.78 83.11±0.89 84.79±1.29 0.21
17 785 49 # Paras TestAcc (%) 79.33±0.67 79.67±0.83 80.28±1.78 17 785 49 #paras testacc (%) 79.33±0.67 79.67±0.83 80.28±1.78 0.41
17 785 49 # Paras TestAcc (%) 80.39±0.61 83.22±1.28 84.25±1.75 17 785 49 #パラステストacc (%) 80.39±0.61 83.22±1.28 84.25±1.75 0.40
17 785 61 Table 3: Test accuracy of QSANN compared to CSANN and the naive method on Yelp, IMDb, and Amazon data sets. 17 785 61 表3: CSANNと比較した場合のQSANNのテスト精度とYelp、IMDb、Amazonのデータセットの単純さ。 0.58
The highest accuracy in each column is indicated in bold font. 各列の最も高い精度は太字で示される。 0.57
On all the three data sets, QSANN achieves the highest accuracies among the three methods while using much fewer parameters than CSANN. 3つのデータセット全てにおいて、QSANNはCSANNよりもはるかに少ないパラメータを使用しながら、3つの手法の中で最も高い精度を達成する。 0.59
scheme applied in Eq (6). Eq (6)で適用されるスキーム。 0.77
During the optimization iteration, we use Adam optimizer [51]. 最適化イテレーションでは、Adam Optimizationr [51]を使用します。 0.79
And we repeat each experiment 9 times with different parameter initializations to collect the average accuracy and the corresponding fluctuations. そして,各実験を9回繰り返してパラメータ初期化を行い,平均精度と対応するゆらぎを収集した。 0.80
In CSANN, we set d = 16 and the classical query, key and value matrices are also initialized from a Gaussian distribution with zero mean and 0.01 standard deviation. CSANNでは、d = 16と古典的なクエリ、キーおよび値行列を平均0、標準偏差0.01のガウス分布から初期化する。 0.69
Except these, almost all other parameters are set the same as QSANN. これらを除いて、ほとんどの他のパラメータはQSANNと同じである。 0.81
These settings and initializations are the same in the naive method as well. これらの設定と初期化は、naiveメソッドでも同じです。 0.80
3.3 Results on MC and RP Tasks The results on MC and RP tasks are summarized in Table 2. 3.3 MCおよびRPタスクの結果 MCおよびRPタスクの結果は表2にまとめられている。 0.86
In the MC task, our method QSANN could easily achieve a 100% test accuracy while requiring only 25 parameters (18 in query-key-value part and 7 in fully-connected part). mcタスクでは,クエリーキー値部分18,完全接続部分7のパラメータしか必要とせず,qsann手法は100%テスト精度を容易に達成できた。 0.73
However, in DisCoCat, the authors use 40 parameters but get a test accuracy lower than 80%. しかし、DisCoCatでは、40のパラメータを使用するが、テスト精度は80%以下である。 0.77
This result strongly demonstrates the powerful ability of QSANN for binary text classification. この結果は、バイナリテキスト分類におけるQSANNの強力な能力を強く示している。 0.61
Here, the parameters in the encoder part are not counted as they could be replaced by fixed representations such as pre-trained word embeddings. ここでは、エンコーダ部のパラメータは、事前訓練された単語埋め込みのような固定表現に置き換えられるため、カウントされない。 0.68
In the RP task, we get a higher training accuracy but a slightly lower test accuracy. rpタスクでは、トレーニング精度は向上するが、テスト精度はわずかに低下する。
訳抜け防止モード: RPタスクでは、より高いトレーニング精度を得る でも テストの精度は わずかに下がった
0.81
However, we observe that both test accuracies are pretty low when compared with the training accuracy. しかし, 両者の検査精度は, 訓練精度と比較してかなり低いことがわかった。 0.80
It is mainly because there is a massive bias between the training set and test set, i.e., more than half of the words in the test set have not appeared in the training one. これは主に、トレーニングセットとテストセットの間に大きなバイアスがあるため、すなわち、テストセットの単語の半分以上がトレーニングセットに現れていないためである。 0.71
Hence, the test accuracy highly depends on random guessing. したがって、テスト精度はランダムな推測に大きく依存する。 0.74
3.4 Results on Yelp, IMDb and Amazon Data Sets As there are no quantum algorithms for text classification on these three data sets before, we benchmark our QSANN with the classical self-attention neural network (CSANN). 3.4 Yelp、IMDb、Amazon Data Setsの成果 これら3つのデータセットのテキスト分類に量子アルゴリズムがないため、QSANNを古典的な自己注意ニューラルネットワーク(CSANN)でベンチマークする。 0.80
The naive method is 10 ナイーブな方法は 10 0.53
英語(論文から抽出)日本語訳スコア
Figure 4: Heat maps of the averaged quantum self-attention coefficients for some selected test sequences from the Yelp data set, where a deeper color indicates a higher coefficient. 図4:Yelpデータセットから選択されたいくつかのテストシーケンスに対する平均量子自己アテンション係数のヒートマップ。
訳抜け防止モード: 図4:Yelpデータセットから選択したテストシーケンスに対する平均量子自己注意係数のヒートマップ。 より深い色は高い係数を示します
0.74
Words that are more sentiment-related are generally assigned higher self-attention coefficients by our Gaussian projected quantum self-attention, implying the validity and interpretability of QSANN. 感情に関連のある単語は、一般的にガウス予想の量子自己アテンションによって高い自己アテンション係数を割り当てられ、QSANNの有効性と解釈可能性を示している。 0.51
also listed for comparison. 比較表にも載っています 0.52
The results on Yelp, IMDb and Amazon data sets are summarized in Table 3. Yelp, IMDb, Amazon のデータセットの結果は Table 3 にまとめられている。 0.93
We can intuitively see that QSANN outperforms CSANN and the naive method on all three data sets. 直感的には、QSANNはCSANNよりも優れており、3つのデータセットの全てにおいて単純である。 0.54
Specifically, CSANN has 785 parameters (768 in classical query-key-value part and 17 in fully-connected part) on all data sets. 具体的には、すべてのデータセットに785のパラメータ(古典的なクエリキー値部分768、完全接続部分17)がある。 0.68
In comparison, QSANN has only 49 parameters (36 in querykey-value part and 13 in fully-connected part) on the Yelp and IMDb data sets and 61 parameters (48 in query-key-value part and 13 in fully-connected part) on the Amazon data set, improving the test accuracy by about 1% as well as saving more than 10 times the number of parameters. 一方、QSANNは、YelpおよびIMDbデータセット上の49個のパラメータ(クエリキー値部36個、完全連結部13個)と、Amazonデータセット上の61個のパラメータ(クエリキー値部48個、完全連結部13個)しか持たず、テスト精度を約1%向上させ、パラメータ数の10倍以上の節約を実現している。 0.74
Therefore, QSANN could have a potential advantage for text classification. したがって、QSANNはテキスト分類に潜在的に有利である可能性がある。 0.62
3.5 Visualization of Self-Attention Coefficient To intuitively demonstrate the reasonableness of the Gaussian projected quantum self-attention, in Fig. 4 we visualize the averaged quantum self-attention coefficients of some selected test sequences from the Yelp data set. 3.5 自己注意係数の可視化 ガウス射影量子自己注意の妥当性を直感的に示すため,図4 ではYelp データセットから選択したテストシーケンスの量子自己注意係数を可視化する。 0.86
Concretely, for a sequence, we calculate 1 s=1 ˜αs,j for j = 1, . . . , S and S visualize them via a heat map, where S is the number of words in this sequence and ˜αs,j is the quantum self-attention coefficient. 具体的には、ある列に対して、j = 1 に対して 1 s=1 >αs,j を計算し、S と S は熱写像を通してそれらを視覚化する。
訳抜け防止モード: 具体的には、ある列に対して 1 s=1 sα を計算する。 j for j = 1, . ., s と s はヒートマップでそれらを視覚化する。 s はこの列のワード数であり、j は量子自己-注意係数 である。
0.76
As shown in the figure, words with higher quantum self-attention coefficients are indeed those that determine the emotion of a sequence, implying the power of QSANN for capturing the most relevant words in a sequence on text classification tasks. 図に示すように、高い量子自己着脱係数を持つ単語は、実際にはシーケンスの感情を決定するもので、テキスト分類タスクでシーケンス内の最も関連性の高い単語をキャプチャするqsannの力を意味する。 0.72
(cid:80)S 3.6 Noisy Experimental Results on Yelp Data Set Due to the limitations of the near-term quantum computers, we add experiments with noisy quantum circuits to demonstrate the robustness of QSANN on the Yelp data set. (cid:80) 3.6 Yelpデータセットにおけるノイズ実験結果 短期量子コンピュータの限界により,Yelpデータセット上でのQSANNの堅牢性を示すために,ノイズ量子回路を用いた実験を追加する。 0.65
We consider the representative 11 代表者を考える 11 0.56
英語(論文から抽出)日本語訳スコア
(a) (b) Figure 5: (a) (b) 図5 0.46
(a) The diagram for adding depolarizing channels in our simulated experiments. (a)シミュレーション実験で脱分極チャネルを追加するためのダイアグラム。 0.80
The amplitude damping channels are added in the same way. 振幅減衰チャネルも同様に付加される。 0.62
(b) Box plots of test accuracy on Yelp data set with depolarizing and amplitude damping noises. (b)脱分極・振幅減衰ノイズを含むyelpデータセットにおけるテスト精度のボックスプロット 0.78
Each box contains 9 repeated experiments. 各箱には9回の繰り返し実験がある。 0.61
The absence of a notable decrease in accuracy implies the noise-resilience attribute of QSANN. 精度の顕著な低下がないことは、QSANNの耐雑音特性を意味する。 0.68
channels [41] such as the depolarizing channel ED(ρ) and the amplitude damping channel EAD(ρ) 脱分極チャネルED(ρ)や振幅減衰チャネルEAD(ρ)のようなチャネル[41] 0.73
ED(ρ) := (1 − p) ρ + EAD(ρ) := E0ρE 1 − p|1(cid:105)(cid:104)1 | and E1 = ED(ρ) := (1 − p) ρ + EAD(ρ) := E0ρE 1 − p|1(cid:105)(cid:104)1 | and E1 = 0.44
† 0 + E1ρE √ 0 + e1ρe である。 0.55
p 3 † 1, (XρX + Y ρY + ZρZ) p3 † 1, (XρX + Y ρY + ZρZ) 0.39
(11) (12) with E0 = |0(cid:105)(cid:104)0 | + p|0(cid:105)(cid:104)1 | denoting the Kraus operators. (11) (12) と E0 = |0(cid:105)(cid:104)0 | + p|0(cid:105)(cid:104)1 | はクラウス作用素を表す。 0.52
Here, ρ = |ψ(cid:105)(cid:104)ψ| for a pure quantum state |ψ(cid:105) and p denotes the noise level. ここで ρ = | (cid:105)(cid:104) =| は純粋量子状態 | (cid:105) であり、p は雑音レベルを表す。 0.78
As a regular way to analyze the effect of quantum noises, we add these single-qubit noisy channels in the final circuit layer to represent the whole system’s noise, which is illustrated in Fig 5(a). 量子ノイズの効果を分析する通常の方法として、最終回路層にこれらの単一量子ノイズチャネルを追加して、システム全体のノイズを表現し、図5(a)に示す。 0.71
√ We take the noise level p as 0.01, 0.1, 0.2 for these two noisy channels, respectively, and the box plots of test accuracies are depicted in Fig 5(b). √ これら2つのノイズチャネルに対して、ノイズレベルpを0.01,0.1,0.2とし、テスト精度のボックスプロットを図5(b)に示す。 0.61
From the picture, we see the test accuracy of our QSANN almost does not decrease when the noise level is less than 0.1, and even when the noise level is up to 0.2, the overall test accuracy has only decreased a little, showing that QSANN is robust to these quantum noises. この結果から,QSANNのノイズレベルが0.1未満である場合,QSANNのテスト精度はほぼ低下せず,ノイズレベルが0.2である場合でも,総合的なテスト精度はわずかに低下し,QSANNがこれらの量子ノイズに対して堅牢であることを示す。 0.87
4 Discussions We have proposed a quantum self-attention neural network (QSANN) by introducing the self-attention mechanism to quantum neural networks. 4つの議論 我々は,量子ニューラルネットワークに自己アテンション機構を導入することで,量子自己アテンションニューラルネットワーク(qsann)を提案する。 0.67
Specifically, the adopted Gaussian projected quantum selfattention exploits the exponentially large quantum Hilbert space as the quantum feature space, making QSANN have the potential advantage of mining some hidden correlations between words that are difficult to dig out classically. 具体的には、ガウス予想の量子自己アテンションは指数関数的に大きなヒルベルト空間を量子特徴空間として利用し、QSANNは古典的に掘り出すのが難しい単語間の隠れた相関関係をマイニングする潜在的な利点を持つ。 0.75
Numerical results show that QSANN outperforms the best-known QNLP method and a simple classical self-attention neural network for text classification on several public data sets. QSANNは、いくつかの公開データセットのテキスト分類において、最もよく知られたQNLP法と単純な古典的自己認識ニューラルネットワークよりも優れていることを示す。 0.56
Moreover, using only shallow quantum circuits and Pauli measurements, QSANN can be easily implemented on near-term quantum devices and is noise-resilient, as implied by simulation results. さらに、浅い量子回路とパウリ測定のみを用いることで、QSANNは短期量子デバイスに容易に実装でき、シミュレーション結果から示唆されるようにノイズ耐性を持つ。 0.77
We believe that this attempt to combine self-attention and quantum neural networks would 私たちは、この自己発見と量子ニューラルネットワークを組み合わせる試みは、 0.72
12 12 0.42
英語(論文から抽出)日本語訳スコア
open up new avenues for QNLP as well as QML. QNLPとQMLの新しい道を開く。 0.59
As a future direction, more advanced techniques such as positional encoding and multi-head attention can be employed in quantum neural networks for generative models and other more complicated tasks. 将来の方向性として、位置符号化やマルチヘッドアテンションといったより高度な技術が、生成モデルやその他のより複雑なタスクのための量子ニューラルネットワークに採用される。 0.64
Acknowledgements We would like to thank Prof. Sanjiang Li and Prof. Yuan Feng for helpful discussions. 覚書 サンジャン・リ教授と元文教授に有意義な議論をお願いいたします。 0.50
G. L. acknowledges the support from the Baidu-UTS AI Meets Quantum project, the China Scholarship Council (No. 201806070139), and the Australian Research Council project (Grant No: DP180100691). G.L.はBaidu-UTS AI Meets Quantum Project、China Scholarship Council (No. 201806070139)、Australian Research Council Project (Grant No: DP180100691)の支援を認めている。 0.83
Part of this work was done when X. Z. was a research intern at Baidu Research. この研究の一部は、X.Z.がBaidu Researchのインターンだった時に行われた。 0.72
References [1] John Preskill. 参考文献 ジョン・プレスキル(John Preskill)。 0.61
Quantum computing 40 years later. 40年後の量子コンピューティング。 0.78
arXiv preprint arXiv:2106.10522, 2021. arXiv preprint arXiv:2106.10522, 2021 0.40
[2] Aram W Harrow and Ashley Montanaro. アラム・W・ハローとアシュリー・モンタナロ。 0.44
Quantum computational supremacy. Nature, 量子計算超越性。 自然だ 0.50
549(7671):203–209, 2017. 549(7671):203–209, 2017. 0.44
[3] Andrew M Childs and Wim van Dam. アンドリュー・M・チャイルドズとウィム・ヴァン・ダム。 0.47
Quantum algorithms for algebraic problems. 代数問題に対する量子アルゴリズム。 0.82
Reviews of Modern Physics, 82(1):1–52, jan 2010. レビュー 現代物理学 82(1):1-52, jan 2010 0.67
[4] Ashley Montanaro. アシュリー・モンタナロ(Ashley Montanaro)。 0.58
Quantum algorithms: an overview. 量子アルゴリズム:概要。 0.64
npj Quantum Information, 2(1):15023, npj 量子情報 2(1):15023 0.69
nov 2016. [5] Andrew M. Childs, Dmitri Maslov, Yunseong Nam, Neil J. Ross, and Yuan Su. ノヴ2016 5]Andrew M. Childs、Dmitri Maslov、Yunseong Nam、Neil J. Ross、Yuan Su。 0.41
Toward the first quantum simulation with quantum speedup. 量子スピードアップによる最初の量子シミュレーションに向けて 0.89
Proceedings of the National Academy of Sciences, 115(38):9456–9461, sep 2018. 国立科学アカデミー紀要、115(38):9456-9461, sep 2018。 0.62
[6] Jacob Biamonte, Peter Wittek, Nicola Pancotti, Patrick Rebentrost, Nathan Wiebe, and Seth [6]Jacob Biamonte,Peter Wittek,Nicola Pancotti,Patrick Rebentrost,Nathan Wiebe,Seth 0.36
Lloyd. Quantum machine learning. Lloyd 量子機械学習。 0.50
Nature, 549(7671):195–202, Sep 2017. 549(7671):195–202, sep 2017。 0.69
[7] Fernando G.S.L. Brandao and Krysta M. Svore. [7]Fernando G.S.L. BrandaoとKrysta M. Svore 0.37
Quantum Speed-Ups for Solving Semidefinite Programs. 半定義プログラムを解くための量子速度アップ。 0.59
In 2017 IEEE 58th Annual Symposium on Foundations of Computer Science (FOCS), pages 415–426. 2017年、IEEE 58th Annual Symposium on Foundations of Computer Science (FOCS) 415-426頁。 0.80
IEEE, oct 2017. IEEE、2017年。 0.78
[8] Feihu Xu, Xiongfeng Ma, Qiang Zhang, Hoi-Kwong Lo, and Jian-Wei Pan. [8]Feihu Xu、Xiongfeng Ma、Qiang Zhang、Hoi-Kwong Lo、Jian-Wei Pan。 0.40
Secure quantum key distribution with realistic devices. セキュア量子鍵 現実的な装置で配布します 0.62
Reviews of Modern Physics, 92(2):25002, 2020. 現代物理学 92(2):25002, 2020 0.60
[9] Sam McArdle, Suguru Endo, Al´an Aspuru-Guzik, Simon C. Benjamin, and Xiao Yuan. 9]Sam McArdle、Endo Suguru、Al ́an Aspuru-Guzik、Simon C. Benjamin、Xiao Yuan。 0.82
Quantum computational chemistry. Reviews of Modern Physics, 92(1):015003, mar 2020. 量子 計算化学 現代物理学、92(1):015003、2020年3月。 0.65
[10] Yudong Cao, Jonathan Romero, Jonathan P Olson, Matthias Degroote, Peter D. Johnson, M´aria Kieferov´a, Ian D. Kivlichan, Tim Menke, Borja Peropadre, Nicolas P D Sawaya, Sukin Sim, Libor Veis, and Al´an Aspuru-Guzik. 10]Yudong Cao, Jonathan Romero, Jonathan P Olson, Matthias Degroote, Peter D. Johnson, M ́aria Kieferov ́a, Ian D. Kivlichan, Tim Menke, Borja Peropadre, Nicolas P D Sawaya, Sukin Sim, Libor Veis, Al ́an Aspuru-Guzik
訳抜け防止モード: [10 ]ユドン・カオ、ジョナサン・ロメロ、ジョナサン・ポルソン Matthias Degroote, Peter D. Johnson, M ́aria Kieferov ́a, Ian D. Kivlichan Tim Menke, Borja Peropadre, Nicolas P D Sawaya, Sukin Sim Libor Veis, and Al ́an Aspuru - Guzik
0.85
Quantum Chemistry in the Age of Quantum Computing. 量子コンピューティング時代における量子化学 0.63
Chemical Reviews, 119(19):10856–10915, oct 2019. Chemical Reviews, 119(19):10856–10915, oct 2019。 0.47
[11] Patrick Rebentrost, Masoud Mohseni, and Seth Lloyd. 11]パトリック・レベントロスト、マスード・モッセニ、セス・ロイド 0.39
Quantum support vector machine for big 大規模量子支援ベクトルマシン 0.79
data classification. Physical Review Letters, 113(3):130503, Sep 2014. データ分類。 フィジカル・レビュー・レター、113(3):130503、sep 2014。 0.74
13 13 0.85
英語(論文から抽出)日本語訳スコア
[12] Hsin-Yuan Huang, Michael Broughton, Masoud Mohseni, Ryan Babbush, Sergio Boixo, Hartmut Neven, and Jarrod R. McClean. Hsin-Yuan Huang氏、Michael Broughton氏、Masoud Mohseni氏、Ryan Babbush氏、Sergio Boixo氏、Hartmut Neven氏、Jarrod R. McClean氏。 0.74
Power of data in quantum machine learning. 量子機械学習におけるデータのパワー。 0.87
Nature Communications, 12(1):2631, dec 2021. 自然通信 12(1):2631, 12月 2021。 0.78
[13] Maria Schuld and Francesco Petruccione. 13] マリア・シュールドとフランチェスコ・ペトルクセネ 0.58
Machine Learning with Quantum Computers. 量子コンピュータによる機械学習。 0.87
2021. [14] John Preskill. 2021. 14] ジョン・プレスキル 0.49
Quantum Computing in the NISQ era and beyond. NISQ時代以降の量子コンピューティング。 0.54
Quantum, 2:79, Aug 2018. 量子、2018年8月2:79。 0.65
[15] Frank Arute, Kunal Arya, Ryan Babbush, Dave Bacon, Joseph C Bardin, Rami Barends, Rupak Biswas, Sergio Boixo, Fernando GSL Brandao, David A Buell, et al Quantum supremacy using a programmable superconducting processor. 15] Frank Arute, Kunal Arya, Ryan Babbush, Dave Bacon, Joseph C Bardin, Rami Barends, Rupak Biswas, Sergio Boixo, Fernando GSL Brandao, David A Buell, et al Quantum supremacy using a programmable superconducting processor。
訳抜け防止モード: [15 ]フランク・アルトゥ,クナル・アリア,ライアン・バブッシュ, Dave Bacon, Joseph C Bardin, Rami Barends, Rupak Biswas, Sergio Boixo Fernando GSL Brandao, David A Buell, et al Quantum supremacy プログラム可能な超伝導プロセッサを使います
0.80
Nature, 574(7779):505–510, 2019. 自然誌 574(7779):505-510, 2019。 0.37
[16] Han-Sen Zhong, Hui Wang, Yu-Hao Deng, Ming-Cheng Chen, Li-Chao Peng, Yi-Han Luo, Jian Qin, Dian Wu, Xing Ding, Yi Hu, et al Quantum computational advantage using photons. [16]ハンセン・ジン、ウイ・ワン、ユ・ホー・デン、ミン・チェン、リ・チャオ・ペン、イ・ハン・ルオ、ジャン・チン、ディアン・ウー、Xing Ding、Yi Hu、その他光子を用いた量子計算の優位性。
訳抜け防止モード: [16 ]漢-仙宗、湖王、湯-羽王、 明-Cheng Chen、Li-Chao Peng、Yi-Han Luo、 Jian Qin, Dian Wu, Xing Ding, Yi Hu 量子計算の優位性 光子を使って
0.77
Science, 370(6523):1460–1463, 2020. 370(6523):1460-1463、2020年。 0.64
[17] Kishor Bharti, Alba Cervera-Lierta, Thi Ha Kyaw, Tobias Haug, Sumner Alperin-Lea, Abhinav Anand, Matthias Degroote, Hermanni Heimonen, Jakob S Kottmann, Tim Menke, et al Noisy intermediate-scale quantum (nisq) algorithms. Kishor Bharti, Alba Cervera-Lierta, Thi Ha Kyaw, Tobias Haug, Sumner Alperin-Lea, Abhinav Anand, Matthias Degroote, Hermanni Heimonen, Jakob S Kottmann, Tim Menke, et al Noisy intermediate-scale quantum (nisq) algorithm。 0.43
arXiv preprint arXiv:2101.08448, 2021. arXiv preprint arXiv:2101.08448, 2021 0.40
[18] M. Cerezo, Andrew Arrasmith, Ryan Babbush, Simon C. Benjamin, Suguru Endo, Keisuke Fujii, Jarrod R. McClean, Kosuke Mitarai, Xiao Yuan, Lukasz Cincio, and Patrick J. Coles. M. C. Cerezo, Andrew Arrasmith, Ryan Babbush, Simon C. Benjamin, Endo Suguru, Keisuke Fujii, Jarrod R. McClean, Kosuke Mitarai, Xiao Yuan, Lukasz Cincio, Patrick J. Coles
訳抜け防止モード: 18 ]m.セレゾ、アンドリュー・アラスミス、ライアン・バブブッシュ simon c. benjamin, suguru endo, keisuke fujii, jarrod r. mcclean, 三田井耕介、元清(xiao yuan)、シンシオ(lukasz cincio)、パトリック・j・コールズ(patrick j. coles)。
0.58
Variational quantum algorithms. 変分量子アルゴリズム。 0.71
Nature Reviews Physics, pages 1–29, aug 2021. Nature Reviews Physics, page 1–29, aug 2021 0.45
[19] Suguru Endo, Zhenyu Cai, Simon C Benjamin, and Xiao Yuan. [19]遠藤スグル、周遊Cai、Simon C Benjamin、Xiao Yuan。 0.28
Hybrid Quantum-Classical Algorithms and Quantum Error Mitigation. ハイブリッド量子古典アルゴリズムと量子誤差緩和 0.74
Journal of the Physical Society of Japan, 90(3):032001, mar 2021. 日本物理学会誌 90(3):03 2001, mar 2021 0.53
[20] Alberto Peruzzo, Jarrod McClean, Peter Shadbolt, Man-Hong Yung, Xiao-Qi Zhou, Peter J. Love, Al´an Aspuru-Guzik, and Jeremy L. O’Brien. Alberto Peruzzo, Jarrod McClean, Peter Shadbolt, Man-Hong Yung, Xiao-Qi Zhou, Peter J. Love, Al ́an Aspuru-Guzik, Jeremy L. O’Brien。
訳抜け防止モード: [20 ]Alberto Peruzzo, Jarrod McClean, Peter Shadbolt Man - Hong Yung, Xiao - Qi Zhou, Peter J. Love アル・アン・アスプル - グジク、ジェレミー・L・オブライエン。
0.76
A variational eigenvalue solver on a photonic quantum processor. フォトニック量子プロセッサにおける変動固有値解法 0.64
Nature Communications, 5(1):4213, dec 2014. Nature Communications, 5(1):4213, dec 2014 0.41
[21] Edward Farhi, Jeffrey Goldstone, and Sam Gutmann. 21]エドワード・ファリー、ジェフリー・ゴールドストーン、サム・グートマン 0.54
A Quantum Approximate Optimization Algorithm. 量子近似最適化 アルゴリズム。 0.53
arXiv:1411.4028, pages 1–16, Nov 2014. arXiv:1411.4028, page 1–16, Nov 2014 0.35
[22] Vojtˇech Havl´ıˇcek, Antonio D. C´orcoles, Kristan Temme, Aram W. Harrow, Abhinav Kandala, Jerry M. Chow, and Jay M. Gambetta. Aram W. Harrow氏、Abhinav Kandala氏、Jerry M. Chow氏、Jay M. Gambetta氏。
訳抜け防止モード: アントニオ・D・C・オルコレス (Antonio D. C'orcoles, Kristan Temme)。 Aram W. Harrow, Abhinav Kandala, Jerry M. Chow ジェイ・M・ガンベッタ。
0.67
Supervised learning with quantum-enhanced feature spaces. 量子エンハンス特徴空間を用いた教師あり学習 0.61
Nature, 567(7747):209–212, Mar 2019. 自然誌 567(7747):209-212, mar 2019。 0.72
[23] Maria Schuld, Alex Bocharov, Krysta M. Svore, and Nathan Wiebe. マリア・シュルド(Maria Schuld)、アレックス・ボチャロフ(Alex Bocharov)、クリスタ・スヴォーレ(Krysta M. Svore)、ネイサン・ウィーベ(Nathan Wiebe)。 0.42
Circuit-centric quantum classifiers. 回路中心量子 分類器 0.35
Physical Review A, 101(3):032308, Mar 2020. 物理書評 A, 101(3):032308, Mar 2020 0.71
[24] K. Mitarai, M. Negoro, M. Kitagawa, and K. Fujii. [24]三田井氏、根来氏、北川氏、藤井氏。 0.45
Quantum circuit learning. Physical Review 量子回路学習。 物理レビュー 0.73
A, 98(3):032309, Sep 2018. A,98(3):032309, Sep 2018。 0.41
[25] Marcello Benedetti, Erika Lloyd, Stefan Sack, and Mattia Fiorentini. 25]マルチェロ・ベネデッティ、エリカ・ロイド、ステファン・サック、マティア・フィオレンティーニ 0.37
Parameterized quantum circuits as machine learning models. 機械学習モデルとしての量子回路のパラメータ化。 0.68
Quantum Science and Technology, 4(4):043001, Jun 2019. 量子科学と技術, 4(4):043001, Jun 2019 0.78
[26] Edward Farhi and Hartmut Neven. エドワード・ファリー(Edward Farhi)とハートムート・ナヴェン(Hartmut Neven)。 0.54
Classification with Quantum Neural Networks on Near Term 量子ニューラルネットワークを用いた近距離領域の分類 0.71
Processors. arXiv:1802.06002, pages 1–21, Feb 2018. プロセッサ。 arXiv:1802.06002, page 1–21, Feb 2018 0.53
14 14 0.42
英語(論文から抽出)日本語訳スコア
[27] Alessandro Sordoni, Jian-Yun Nie, and Yoshua Bengio. 27] アレッサンドロ・ソルドニ、ジャン・ユン・ニー、ヨシュア・ベンジオ 0.47
Modeling term dependencies with quantum language models for IR. IRの量子言語モデルによる項依存のモデル化。 0.83
In Proceedings of the 36th international ACM SIGIR conference on Research and development in information retrieval - SIGIR ’13, page 653, New York, New York, USA, 2013. 第36回ACM SIGIR国際情報検索研究開発会議報告 - SIGIR'13, page 653, New York, New York, USA, 2013 0.62
ACM Press. [28] Peng Zhang, Jiabin Niu, Zhan Su, Benyou Wang, Liqun Ma, and Dawei Song. acmプレス。 [28]Peng Zhang、Jiabin Niu、Zhan Su、Benyo Wang、Liqun Ma、Dawei Song。 0.64
End-to-End Quantum-Like Language Models with Application to Question Answering. 問合せ応答への量子的言語モデルの適用 0.59
Proceedings of the AAAI Conference on Artificial Intelligence, 32(1), 2018. AAAI Conference on Artificial Intelligence, 32(1), 2018 に参加して 0.73
[29] Yazhou Zhang, Dawei Song, Peng Zhang, Xiang Li, and Panpan Wang. [29]八州張、太平宋、Peng Zhang、Xiang Li、Panpan Wang。 0.29
A quantum-inspired sentiment representation model for twitter sentiment analysis. twitter感情分析のための量子インスピレーションされた感情表現モデル 0.65
Applied Intelligence, 49(8):3093– 3108, 2019. Applied Intelligence, 49(8):3093–3108, 2019。 0.96
[30] Ivano Basile and Fabio Tamburini. [30]Ivano Basile氏とFabio Tamburini氏。 0.43
Towards quantum language models. 量子言語モデルに向けて 0.85
In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pages 1840–1849, 2017. 自然言語処理における経験的手法に関する2017年会議の議事録では、1840-1849, 2017ページが紹介されている。
訳抜け防止モード: 自然言語処理における経験的手法に関する2017年会議のまとめ 1840-1849頁、2017年。
0.75
[31] William Zeng and Bob Coecke. 31]ウィリアム・ゼンとボブ・クーケ 0.59
Quantum algorithms for compositional natural language pro- 合成自然言語proのための量子アルゴリズム 0.79
cessing. arXiv preprint arXiv:1608.01406, 2016. 中止だ arXiv preprint arXiv:1608.01406, 2016 0.36
[32] Konstantinos Meichanetzidis, Stefano Gogioso, Giovanni De Felice, Nicol`o Chiappori, Alexis Toumi, and Bob Coecke. Konstantinos Meichanetzidis, Stefano Gogioso, Giovanni De Felice, Nicol`o Chiappori, Alexis Toumi, Bob Coecke
訳抜け防止モード: [32 ]Konstantinos Meichanetzidis, Stefano Gogioso, Giovanni de Felice, Nicol `o Chiappori , Alexis Toumi , Bob Coecke
0.34
Quantum natural language processing on near-term quantum computers. 短期量子コンピュータにおける量子自然言語処理 0.81
arXiv preprint arXiv:2005.04147, 2020. arxiv プレプリント arxiv:2005.04147, 2020 0.45
[33] Nathan Wiebe, Alex Bocharov, Paul Smolensky, Matthias Troyer, and Krysta M Svore. Nathan Wiebe氏、Alex Bocharov氏、Paul Smolensky氏、Matthias Troyer氏、Krysta M Svore氏。 0.36
Quantum language processing. arXiv preprint arXiv:1902.05162, 2019. 量子 言語処理。 arXiv preprint arXiv:1902.05162, 2019 0.63
[34] Samuel Yen-Chi Chen, Shinjae Yoo, and Yao-Lung L Fang. [34]Samuel Yen-Chi Chen,Shinjae Yoo,Yao-Lung L Fang 0.39
Quantum long short-term memory. arXiv preprint arXiv:2009.01783, 2020. 短期記憶の量子化。 arxiv プレプリント arxiv:2009.01783, 2020 0.42
[35] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. [35]Jacob Devlin、Ming-Wei Chang、Kenton Lee、Kristina Toutanova。 0.36
Bert: Pre-training of deep bidirectional transformers for language understanding. Bert: 言語理解のための双方向トランスフォーマーの事前トレーニング。 0.80
arXiv preprint arXiv:1810.04805, 2018. arXiv preprint arXiv:1810.04805, 2018 0.39
[36] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, In Proceedings of the 31st [36]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, in Proceedings of the 31th
訳抜け防止モード: 36 ]アッシュ・ヴァシワニ ノアム・シャザー ニキ・パルマー jakob uszkoreit , llion jones , aidan n gomez , in proceedings of the 31st
0.58
Łukasz Kaiser, and Illia Polosukhin. シュカシュ・カイザーとイリア・ポロスキン。 0.31
Attention is all you need. 注意はあなたが必要とするすべてです。 0.63
International Conference on Neural Information Processing Systems, pages 6000–6010, 2017. ニューラル・インフォメーション・プロセッシング・システムズに関する国際会議、6000-6010頁、2017年。 0.65
[37] Xiangpeng Li, Jingkuan Song, Lianli Gao, Xianglong Liu, Wenbing Huang, Xiangnan He, and Chuang Gan. [37]Xiangpeng Li、Jingkuan Song、Lianli Gao、Xianglong Liu、Wenbing Huang、Xiangnan He、Chuang Gan。
訳抜け防止モード: 《37 ]キアンgpeng li, jingkuan song, lianli gao, チャンロン・リウ、ウェンビン・フアン、チャンナン・ヘ、チュアン・ガン。
0.58
Beyond rnns: Positional self-attention with co-attention for video question answering. Beyond rnns: ビデオ質問応答のための共同注意による位置自認。 0.77
In Proceedings of the AAAI Conference on Artificial Intelligence, volume 33, pages 8658–8665, 2019. aaai conference on artificial intelligence』第33巻、第8658-8665頁、2019年。 0.60
[38] Qipeng Guo, Xipeng Qiu, Pengfei Liu, Xiangyang Xue, and Zheng Zhang. [38]清国公、清国清、Pengfei Liu、Xiangyang Xue、Zheng Zhang。 0.28
Multi-scale selfattention for text classification. テキスト分類のためのマルチスケールセルフアテンション 0.63
In Proceedings of the AAAI Conference on Artificial Intelligence, volume 34, pages 7847–7854, 2020. aaai conference on artificial intelligence』第34巻、第7847-7854頁、2020年。 0.61
[39] Peter Cha, Paul Ginsparg, Felix Wu, Juan Carrasquilla, Peter L McMahon, and Eun-Ah Kim. [39]ピーター・チャ、ポール・ギンスパーグ、フェリックス・ウー、フアン・カラスクイラ、ピーター・l・マクマホン、ウン・ア・キム。 0.58
Attention-based quantum tomography. 注意に基づく量子トモグラフィ 0.76
arXiv preprint arXiv:2006.12469, 2020. arxiv プレプリント arxiv:2006.12469, 2020 0.43
15 15 0.42
英語(論文から抽出)日本語訳スコア
[40] Robin Lorenz, Anna Pearson, Konstantinos Meichanetzidis, Dimitri Kartsaklis, and Bob Coecke. [40]Robin Lorenz、Anna Pearson、Konstantinos Meichanetzidis、Dimitri Kartsaklis、Bob Coecke。 0.33
Qnlp in practice: Running compositional models of meaning on a quantum computer. Qnlp in practice: 量子コンピュータ上で意味の合成モデルを実行する。 0.80
arXiv preprint arXiv:2102.12846, 2021. arXiv preprint arXiv:2102.12846, 2021 0.40
[41] Michael A. Nielsen and Isaac Chuang. マイケル・A・ニールセンとアイザック・チュアン。 0.42
Quantum Computation and Quantum Information. 量子計算と量子情報。 0.71
Amer- ican Journal of Physics, 70(5):558–559, May 2002. アマー ican Journal of Physics, 70(5):558–559, 5月。 0.47
[42] Charles A Micchelli, Yuesheng Xu, and Haizhang Zhang. 42] チャールズ・ア・ミチェリ、ユエシェン・クウ、ハイジャン・ジャン 0.40
Universal kernels. ユニバーサルカーネル。 0.55
Journal of Machine Journal of Machine(英語) 0.55
Learning Research, 7(12), 2006. 平成18年(2006年)7月、卒業。 0.41
[43] Riccardo Di Sipio, Jia-Hong Huang, Samuel Yen-Chi Chen, Stefano Mangini, and Marcel Worring. [43]Riccardo Di Sipio、Jia-Hong Huang、Samuel Yen-Chi Chen、Stefano Mangini、Marcel Worring。 0.39
The dawn of quantum natural language processing. 量子自然言語処理の夜明け。 0.60
In ICASSP 2022-2022 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pages 8612–8616. icassp 2022-2022 ieee international conference on acoustics, speech and signal processing (icassp) には8612-8616ページがある。 0.68
IEEE, 2022. IEEE、2022年。 0.76
[44] Eric R. Ziegel, E. L. Lehmann, and George Casella. [44]エリック・r・ジーゲル、e・l・リーマン、ジョージ・カゼラ 0.63
Theory of Point Estimation. ポイント推定の理論。 0.71
Technometrics, テクノメトリックス。 0.54
41(3):274, Aug 1999. 41(3):274、1999年8月。 0.74
[45] L´eon Bottou. 45]l eon bottou。 0.47
Stochastic Learning. In Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), volume 3176, pages 146–168. 確率的学習。 コンピュータ科学の講義ノート(人工知能の講義ノート、バイオインフォマティクスの講義ノートを含む)では、3176, page 146–168。 0.62
2004. [46] Yunchao Liu, Srinivasan Arunachalam, and Kristan Temme. 2004. [46]ユンチャオ・リウ、スリニヴァサン・アルナチャラム、クリスタン・テムム。 0.34
A rigorous and robust quantum 厳密でロバストな量子 0.62
speed-up in supervised machine learning. 教師付き機械学習におけるスピードアップ。 0.63
Nature Physics, pages 1–5, 2021. 自然物理学』、1-5頁、2021年。 0.59
[47] Hsin-Yuan Huang, Michael Broughton, Masoud Mohseni, Ryan Babbush, Sergio Boixo, Hartmut Neven, and Jarrod R McClean. Hsin-Yuan Huang氏、Michael Broughton氏、Masoud Mohseni氏、Ryan Babbush氏、Sergio Boixo氏、Hartmut Neven氏、Jarrod R McClean氏。 0.73
Power of data in quantum machine learning. 量子機械学習におけるデータのパワー。 0.87
Nature Communications, 12(1):1–9, 2021. ナチュラル・コミュニケーションズ 12(1):1-9, 2021。 0.71
[48] Dimitrios Kotzias, Misha Denil, Nando De Freitas, and Padhraic Smyth. [48]Dimitrios Kotzias、Misha Denil、Nando De Freitas、Padhraic Smyth。 0.60
From group to inIn Proceedings of the 21th ACM SIGKDD International 第21回ACM SIGKDD国際会議に参加して 0.66
dividual labels using deep features. 深い特徴を用いた分割ラベル。 0.71
Conference on Knowledge Discovery and Data Mining, pages 597–606, 2015. 知識発見とデータマイニングに関する会議, 597–606, 2015 0.81
[49] Yanjun Ma, Dianhai Yu, Tian Wu, and Haifeng Wang. [49]ヤンジュン・マ、Dianhai Yu、Tian Wu、Haifeng Wang。 0.59
PaddlePaddle: An Open-Source Deep Learning Platform from Industrial Practice. PaddlePaddle: 産業プラクティスによるオープンソースのディープラーニングプラットフォーム。 0.76
Frontiers of Data and Domputing, 1(1):105–115, 2019. データとドミネーションのフロンティア、2019年1(1):105–115。 0.66
[50] Dheeru Dua and Casey Graff. [50]Dheeru DuaとCasey Graff。 0.38
UCI machine learning repository, 2017. UCI機械学習レポジトリ、2017年。 0.79
[51] Diederik P. Kingma and Jimmy Lei Ba. 51]ディーデリク・p・キングマとジミー・ライ・バ 0.47
Adam: A method for stochastic optimization. Adam: 確率最適化の方法です。 0.69
3rd International Conference on Learning Representations, ICLR 2015 - Conference Track Proceedings, Dec 2015. 3rd international conference on learning representations, iclr 2015 - conference track proceedings, dec 2015 (英語) 0.45
[52] Ian Goodfellow, Yoshua Bengio, and Aaron Courville. 52] イアン・グッドフェロー、ヨシュア・ベンジオ、アーロン・クールヴィル 0.59
Deep Learning. ディープラーニング。 0.39
MIT Press, 2016. 2016年、MIT出版。 0.65
http: //www.deeplearningbo ok.org. http: deeplearningbook.org (英語) 0.37
16 16 0.42
英語(論文から抽出)日本語訳スコア
Appendix for Quantum Self-Attention Neural Networks 量子自己アテンションニューラルネットワークの付録 0.79
for Text Classification テキスト分類のために 0.72
1 Analytical Gradients Here, we give the stochastic analytical partial gradients of the loss function with regard to its parameters as follows. 1 分析勾配 ここでは,損失関数の確率的解析的部分勾配を,そのパラメータについて下記のように示す。 0.58
We first consider the parameters in the last quantum self-attention neural network layer, i.e., θ(L) , and the final fully-connected layer, i.e., w, b, and then the parameters in the front layers could be evaluated in a similar way and be updated through back-propagation algorithm [52]. まず,最終量子自己結合ニューラルネットワーク層(θ(l))と最終完全連結層(w,b)のパラメータについて検討し,その後,前層におけるパラメータを同様の方法で評価し,バックプロパゲーションアルゴリズム [52] により更新する。 0.76
Given the m-th data sample {(x1, x2, . . . , xSm) , y} (here, we omit (m) in the left superscript for writing convenience, the same below), we have m 番目のデータサンプル {(x1, x2, . . . , xsm) , y} (ここでは、左のスーパースクリプトで (m) を省略して、便利さを記述する。 0.71
k , θ(L) , θ(L) k , θ(L) θ(l) である。 0.56
v q where ˜σ = (σ − y) · σ (1 − σ) and σ denotes the abbreviation of σ also have v q ここで σ = (σ − y) · σ (1 − σ) と σ は σ の短縮を表す。
訳抜け防止モード: v q where ˜σ = ( σ − y ) · σ ( 1 − σ ) σ は σ の略語でもあることを示す
0.58
(cid:16) w(cid:62) · 1 (出典:16) w(cid:62) · 1 0.57
Sm (cid:80)Sm Sm (cid:80)sm 0.42
s=1 y(L) s + b s=1 y(L) s + b である。 0.74
Sm(cid:88) Sm (cid:88) 0.41
s=1 · w, s=1。 ·w である。 0.49
∂L ∂w ∂L ∂y(L) ∂L ・w ・L ・y(L) 0.69
= ˜σ · 1 Sm = ˜σ · 1 Sm 1 sm = 1 sm = 1 sm = 1 sm である。 0.54
s y(L) s + s y(L) s + 0.64
λ d w, ∂L ∂b λ d W, W. ∂L ∂b 0.44
= ˜σ, (cid:32) (cid:32) (cid:32) = ˜σ, (cid:32)(cid:32) 0.44
s=1 Sm(cid:88) Sm(cid:88) Sm(cid:88) s=1。 Sm(cid:88) Sm(cid:88) Sm(cid:88) 0.43
s=1 s=1 ∂L ∂y(L) s=1。 s=1。 L (複数形 Ls) 0.54
s ∂L ∂y(L) s L (複数形 Ls) 0.57
s ∂L ∂y(L) s L (複数形 Ls) 0.57
s (cid:33)(cid:62) Sm(cid:88) (cid:33)(cid:62) Sm(cid:88) (cid:33)(cid:62) Sm(cid:88) s (cid:33)(cid:62) Sm(cid:88) (cid:33)(cid:62) Sm(cid:88) (cid:33)(cid:62) Sm(cid:88) 0.40
j=1 j=1 j=1 j=1 j=1 j=1 0.29
s ∂y(L) ∂o(L) s ・(L)・(L) 0.53
j s ∂y(L) ∂α(L) s,j j s ∂y(l) ∂α(l) s,j 0.59
s ∂y(L) ∂α(L) s,j s ∂y(l) ∂α(l) s,j 0.68
∂L ∂θ(L) v ∂L ∂θ(L) v 0.43
∂L ∂θ(L) q ∂L ∂θ(L) q 0.43
∂L ∂θ(L) k ∂L ∂θ(L) k 0.65
= = = (cid:16) = = = (出典:16) 0.49
∂α(L) s,j ∂(cid:104)Zk(cid:105) i ∂α(L) s,j ∂(cid:104)Zk(cid:105) i 0.45
= −α(L) s,j =-α(L) s,j 0.59
(cid:40) s,i − δij α(L) (cid:40) s,i − δij α(l) 0.46
j , v · ∂o(L) ∂θ(L) · ∂α(L) ∂(cid:104)Zq(cid:105) s j , v · ∂o(L) ∂θ(L) · ∂α(L) ∂(cid:104)Zq(cid:105) s 0.43
s,j q , ∂α(L) s,j ∂(cid:104)Zk(cid:105) i s,j q , ∂α(L) s,j ∂(cid:104)Zk(cid:105) i 0.43
· ∂(cid:104)Zq(cid:105) s · Sm(cid:88) ∂θ(L) · ∂(cid:104)Zk(cid:105) i s,j /∂(cid:104)Zq(cid:105) s = −(cid:80)Sm ∂θ(L) (cid:17) · 2 ((cid:104)Zq(cid:105 )s − (cid:104)Zk(cid:105) i) , · ∂(104)Zq(cid:105)s · Sm(cid:88)Zk(cid:104 )Zk(cid:105)i s,j /∂(cid:104)Zq(cid:105) s = −(cid:80)Sm ∂θ(L) (cid:17) · 2 (cid:104)Zq(cid:105) s − (cid:104)Zk(cid:105) i) 0.46
i=1 k i=1 である。 k 0.58
, δij = i = j , δij = i = j である。 0.48
1, 0, otherwise. 1, 0 でなければ 0.70
(cid:17) (S1) (cid:17) (S1) 0.43
(S2) . We (S2) . 私たち 0.52
(S3) (S4) (S5) (S3) (S4) (S5) 0.47
(S6) where ∂y(L) (S6) ここで ∂y(l) は 0.49
s /∂o(L) j = α(L) s/∂o(L) j = α(L) 0.43
s,j , ∂y(L) s,j , ∂y(l) 0.86
s /∂α(L) s,j = o(L) s/∂α(L) s,j = o(L) 0.43
j , ∂α(L) i=1 ∂α(L) j ・~α(L) i=1 ∂α(L) 0.65
s,j /∂(cid:104)Zk(cid:105) i and s,j /∂(cid:104)zk(cid:105) i および 0.42
Furthermore, the last three partial derivatives of Eqs. さらに、最後の3つの部分微分は eqs である。 0.60
(S3), (S4) and (S5) could be evaluated directly on the quantum computers via the parameter shift rule [24]. (s3), (s4) および (s5) はパラメータシフト規則 [24] によって量子コンピュータ上で直接評価することができた。 0.81
For example, where (cid:104)Zq(cid:105) s,± := (cid:104)ψs| U 例えば ここで (cid:104)Zq(cid:105) s,± := (cid:104)\s| U 0.39
† q,±ZUq,± |ψs(cid:105) and Uq,± := Uq q,±zuq,± |ψs(cid:105) および uq,± := uq 0.81
17 ∂(cid:104)Zq(cid:105) s ∂θ(L) q,j 17 ∂(cid:104)Zq(cid:105) s ∂θ(L) q,j 0.44
= 1 2 ((cid:104)Zq(cid:105 )s,+ − (cid:104)Zq(cid:105) s,−) , = 1 2 ((cid:104)zq(cid:105 )s,+ − (cid:104)zq(cid:105) s,−) , 0.45
(cid:16) θ(L) q,−j, θ(L) (出典:16) θ(L) q,−j, θ(L) 0.55
q,j ± π 2 (cid:17) q,j ± π 2 (cid:17) 0.41
. (S7) . (S7) 0.45
英語(論文から抽出)日本語訳スコア
Finally, in order to derive the partial derivatives of the parameters in the front layers, we also need 最後に、前層のパラメータの部分微分を導出するためにも、我々はまた必要です。 0.68
the following: ∂L 以下の通りです ∂l 0.52
∂y(L−1) i ∂y(l−1) 私は 0.44
= + + (cid:32) Sm(cid:88) = + + (cid:32)Sm(cid:88) 0.41
s=1 ∂L ∂y(L) s=1。 L (複数形 Ls) 0.58
i + ∂L ∂y(L) 私は + L (複数形 Ls) 0.56
(cid:32) i (cid:32) 私は 0.46
(cid:33)(cid:62) (cid:33)(cid:62) 0.37
∂L ∂y(L) L (複数形 Ls) 0.71
s=1 (cid:32) Sm(cid:88) (cid:33)(cid:62) Sm(cid:88) (cid:33)(cid:62) Sm(cid:88) s=1。 (cid:32) Sm(cid:88) (cid:33)(cid:62) Sm(cid:88) (cid:33)(cid:62) Sm(cid:88) 0.42
j=1 s i ∂y(L) ∂α(L) i,j j=1 s 私は ∂y(l) ∂α(l) i,j 0.55
∂L ∂y(L) L (複数形 Ls) 0.71
s s ∂y(L) ∂α(L) s,j s s ∂y(l) ∂α(l) s,j 0.59
j=1 i i i j=1 私は 私は 私は 0.47
s ∂y(L) ∂o(L) · ∂α(L) ∂(cid:104)Zq(cid:105) i · ∂α(L) ∂(cid:104)Zk(cid:105) i s ∂y(L) ∂o(L) · ∂α(L) ∂(cid:104)Zq(cid:105) i · ∂α(L) ∂(cid:104)Zk(cid:105) i 0.43
· ∂o(L) ∂y(L−1) · ∂(cid:104)Zq(cid:105) i ∂y(L−1) · ∂(cid:104)Zk(cid:105) i ∂y(L−1) ·(L)Zq(cid:105)i(L−1) ·(cid:104)Zq(cid:105) i(cid:104)Zk(cid:105 )i(L−1) 0.40
s,j i,j i s,j i.j. 私は 0.45
i , (S8) where the four terms denote the residual, value, query and key parts, respectively, and each sub-term can be evaluated similarly to the above analysis. 私は , (S8) 4つの項はそれぞれ残差、値、クエリ、キー部分を表し、各サブタームは上記の分析と同様に評価することができる。 0.52
With the above preparation, we could easily calculate every parameter’s gradient and update these parameters accordingly. 上記の準備により、各パラメータの勾配を簡単に計算し、それに応じてこれらのパラメータを更新できる。 0.72
18 18 0.43
                                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。