論文の概要、ライセンス

# (参考訳) 量子ニューラルネットワークのジレンマ [全文訳有]

The dilemma of quantum neural networks ( http://arxiv.org/abs/2106.04975v1 )

ライセンス: CC BY 4.0
Yang Qian, Xinbiao Wang, Yuxuan Du, Xingyao Wu, Dacheng Tao(参考訳) 量子機械学習の中核は、より信頼性と解釈性を確保するために、従来のモデルよりも訓練性が高く、一般化誤差が低い量子モデルを開発することである。 最近の研究では、量子ニューラルネットワーク(QNN)が特定のデータセットでこの目標を達成する能力を持っていることが確認されている。 この点に関して、これらの利点がまだ現実世界のタスクで維持されているかどうかを理解することが非常に重要である。 系統的な数値実験により,現在のQNNは古典的学習モデルに対していかなるメリットも提供できないことを実証的に観察した。 具体的には、2つの重要なメッセージが送られます。 まず、QNNは、実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされる。 第2に、QNNのトレーニング容易性は、古典的なシナリオとは対照的な正規化技術に敏感である。 これらの実証的な結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。

The core of quantum machine learning is to devise quantum models with good trainability and low generalization error bound than their classical counterparts to ensure better reliability and interpretability. Recent studies confirmed that quantum neural networks (QNNs) have the ability to achieve this goal on specific datasets. With this regard, it is of great importance to understand whether these advantages are still preserved on real-world tasks. Through systematic numerical experiments, we empirically observe that current QNNs fail to provide any benefit over classical learning models. Concretely, our results deliver two key messages. First, QNNs suffer from the severely limited effective model capacity, which incurs poor generalization on real-world datasets. Second, the trainability of QNNs is insensitive to regularization techniques, which sharply contrasts with the classical scenario. These empirical results force us to rethink the role of current QNNs and to design novel protocols for solving real-world problems with quantum advantages.
公開日: Wed, 9 Jun 2021 10:41:47 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
9 ] h pt n a u q [ 9 ] h pt n a u q [ 0.85
1 v 5 7 9 4 0 1 v 5 7 9 4 0 0.85
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
The dilemma of quantum neural networks 量子ニューラルネットワークのジレンマ 0.60
Yang Qian ∗† Yang Qian (複数形 Yang Qians) 0.35
Xinbiao Wang ‡† シンビアオ・ウォン(Xinbiao Wang) 0.35
Yuxuan Du §† Yuxuan (複数形 Yuxuans) 0.39
Xingyao Wu † シンジャオ・ウー(xingyao wu)。 0.42
Dacheng Tao † ダッチェン・タオ(Dacheng Tao) 0.30
Abstract The core of quantum machine learning is to devise quantum models with good trainability and low generalization error bound than their classical counterparts to ensure better reliability and interpretability. 概要 量子機械学習の中核は、より信頼性と解釈性を確保するために、従来のモデルよりも訓練性が高く、一般化誤差が低い量子モデルを開発することである。 0.52
Recent studies confirmed that quantum neural networks (QNNs) have the ability to achieve this goal on specific datasets. 最近の研究では、量子ニューラルネットワーク(QNN)が特定のデータセットでこの目標を達成する能力を持っていることが確認されている。
訳抜け防止モード: 最近の研究で 量子ニューラルネットワーク(QNN)には、特定のデータセットでこの目標を達成する能力がある。
0.79
With this regard, it is of great importance to understand whether these advantages are still preserved on real-world tasks. この点に関して、これらの利点がまだ現実世界のタスクで維持されているかどうかを理解することが非常に重要である。
訳抜け防止モード: この点では とても重要です これらの利点がまだ現実世界のタスクで維持されているかどうかを理解するためです。
0.61
Through systematic numerical experiments, we empirically observe that current QNNs fail to provide any benefit over classical learning models. 系統的な数値実験により,現在のQNNは古典的学習モデルに対していかなるメリットも提供できないことを実証的に観察した。 0.62
Concretely, our results deliver two key messages. 具体的には、2つの重要なメッセージが送られます。 0.41
First, QNNs suffer from the severely limited effective model capacity, which incurs poor generalization on real-world datasets. まず、QNNは、実世界のデータセットの一般化が不十分な、極めて限られた有効モデル能力に悩まされる。 0.57
Second, the trainability of QNNs is insensitive to regularization techniques, which sharply contrasts with the classical scenario. 第2に、QNNのトレーニング容易性は、古典的なシナリオとは対照的な正規化技術に敏感である。 0.58
These empirical results force us to rethink the role of current QNNs and to design novel protocols for solving real-world problems with quantum advantages. これらの実証的な結果から、現在のQNNの役割を再考し、量子的優位性で現実の問題を解決するための新しいプロトコルを設計せざるを得ない。 0.54
1 Introduction The theme of deep learning is efficiently optimizing a good neural network architecture with low generalization error such that it can well extrapolate the underlying rule from the training data to new unseen data [1, 2, 3]. 1 ディープラーニングのテーマは、トレーニングデータから新しい未知のデータ [1, 2, 3] への基礎となるルールを適切に外挿できるように、最適化エラーの少ない優れたニューラルネットワークアーキテクチャを効率的に最適化することである。 0.75
During the past decades, deep neural networks (DNNs) with diverse architectures have been carefully designed to accomplish different tasks with both low train and test error. 過去数十年間、さまざまなアーキテクチャを持つディープニューラルネットワーク(dnn)は、低い列車とテストエラーの両方で異なるタスクを達成するために慎重に設計されてきた。 0.66
Moreover, these DNNs have achieved state-of-the-art performance compared with conventional machine learning models such as support vector machines [2]. さらに,これらのDNNは,サポートベクトルマシン [2] のような従来の機械学習モデルと比較して,最先端の性能を実現している。 0.66
Concrete examples include the exploitation of convolutional neural networks to tackle computer vision tasks [4, 5] and the employment of recurrent neural networks to solve natural language processing tasks [6, 7]. 具体的な例としては、コンピュータビジョンタスク [4, 5] に取り組むための畳み込みニューラルネットワークの利用、自然言語処理タスク [6, 7] を解決するための繰り返しニューラルネットワークの利用などがある。 0.78
Alongside the huge empirical success of deep learning, numerous studies have been dedicated to investigating the excellent trainability and generalization ability of DNNs [8, 9, 10], since a good understanding of these two properties does not only contribute to make DNNs more interpretable, but it might also lead to more reliable model architecture design. ディープラーニングの巨大な実証的な成功に加え、DNNの優れた訓練性と一般化能力の研究(8,9,10)も数多く行われており、これらの2つの特性の理解がDNNをより解釈しやすいものにするだけでなく、より信頼性の高いモデルアーキテクチャ設計にも寄与する可能性がある。 0.80
A milestone in the regime of quantum computing is Google’s experimental demonstration that modern quantum machines can solve certain computational tasks faster than classical computers [11, 12]. 量子コンピューティングの体制におけるマイルストーンは、現代の量子コンピュータが古典的コンピュータ[11, 12]よりも高速な計算タスクを解決できるというgoogleの実験的な実証である。 0.77
Such a superior power fuels a growing interest of designing quantum machine learning (QML) models, which can be effectively executed on both noisy intermediate-scale quantum (NISQ) and fault-tolerant quantum machines with provable advantages [13, 44, 14, 15]. このような優れたパワーは量子機械学習(QML)モデルを設計することへの関心を高め、これはノイズの多い中間スケール量子(NISQ)と耐故障性量子マシンの両方で効果的に実行できる[13,44,14,15]。 0.86
Following this routine, the quantum neural networks (QNNs), as the quantum extension of DNNs, has been extensively investigated [16, 17, 18, 19, 20, 21, 22]. このルーチンに続いて、dnnの量子拡張としての量子ニューラルネットワーク(qnns)が広範囲に研究されてきた [16,17,18,19,20,21,22 ]。 0.81
Celebrated by their flexible structures, experimental studies have implemented QNNs on different NISQ platforms to フレキシブルな構造を称賛し、様々なNISQプラットフォームにQNNを実装した実験的研究である。 0.65
∗School of Computer Science, The University of Sydney †JD Explore Academy ‡Institute of Artificial Intelligence, School of Computer Science, Wuhan University §Corresponding author, duyuxuan123@gmail.co m *school of computer science, the university of sydney ]jd explore academy, the institutee of artificial intelligence, school of computer science, wuhan university scorresponding author, duyuxuan123@gmail.co m 0.86
1 1 0.85
英語(論文から抽出)日本語訳スコア
Figure 1: An overview of the classical and quantum learning models. 図1: 古典的および量子的学習モデルの概要。 0.77
Generalization ability: H is the whole hypothesis space. 一般化能力: H は全仮説空間である。 0.86
HD and HQ refer to the hypothesis space represented by QNN and DNN respectively. HD とHQ はそれぞれ QNN と DNN で表される仮説空間を参照。 0.74
When the target concept is covered by HQ\HD (HD\HQ), as highlighted by the red (green) hollow star, QNNs can definitely (fail to) guarantee computational advantages over DNNs. ターゲットコンセプトをHQ\HD(HD\HQ)でカバーすると、赤(緑)の中空星によって強調されるように、QNNはDNNに対する計算上の優位性を保証することができる。 0.74
When the target concept lies in HD ∩ HQ (highlighted by the black color), it is unknown whether QNNs may possess any advantage over DNNs. ターゲットのコンセプトがHD > HQ(黒色でハイライトされている)にある場合、QNNがDNNに対して優位性を持っているかどうかは不明である。 0.70
Trainability: The function graph corresponding to the arrow of the optimization path of QNN indicates the possible barren plateau which is characterized by the vanished gradients. 訓練性: QNNの最適化経路の矢印に対応する関数グラフは、消失した勾配によって特徴づけられる不毛の台地を示す。 0.82
accomplish various learning tasks such as data classification [20, 23], image generation [24, 25, 26], and electronic-structure problems in material science and condensed matter physics [27, 28, 29, 30]. データ分類[20,23]、画像生成[24,25,26]、物質科学および凝縮物物理学における電子構造問題[27,28,29,30]などの様々な学習タスクを達成する。 0.81
Driven by the promising empirical achievements of QML and the significance of understanding the power of QNNs, initial studies have been conducted to explore the trainability and the generalization ability of QNNs [31, 32, 33, 34, 35, 36, 37] by leveraging varied model complexity measures developed in statistical learning theory [38] and advanced tools in optimization theory [39]. qmlの有望な実証的成果とqnnのパワーの理解の意義により、統計学習理論 [38] や最適化理論における高度なツールを用いて、qnn (31, 32, 33, 34, 35, 36, 37) の学習能力と一般化能力を探求する最初の研究が行われた [39]。
訳抜け防止モード: QMLの有望な実証的な成果と、QNNの力を理解することの重要性によって駆動される。 QNNのトレーニング可能性と一般化能力について調査した[31,31]。 32, 33, 34, 35, 36, 37 ] 統計学習理論で開発された多種多様なモデル複雑度尺度 [38] 最適化理論の高度なツール [39 ]
0.86
Notably, the obtained results transmitted both positive and negative signals, as indicated in Figure 1. 特に、得られた結果は、図1に示すように、正信号と負信号の両方を送信した。 0.66
To be more concrete, theoretical evidence validated that QNNs can outperform DNNs for specific learning tasks, i.e., quantum synthetic data classification [20] and discrete logarithm problem [36]. より具体的に言うと、QNNは特定の学習タスク、すなわち量子合成データ分類[20]と離散対数問題[36]において、DNNよりも優れていることが理論的に証明された。 0.64
However, Ref. [40] revealed the barren plateaus’ issue of QNNs, which challenges the applicability of QNNs on large-scale problems. しかし、Ref。 [40]は,QNNの大規模問題に対する適用性に挑戦するQNNの問題を明らかにした。 0.73
Considering that an ambitious aim of QNNs is providing computational advantages over DNNs on real-world tasks, it is important to answer: ‘Are current QNNs sufficient to solve certain real-world problems with potential advantages?’ If the response is negative, it is necessary to figure out ‘how is the gap between QNNs and DNNs?’ 現実のタスクにおいて、QNNの野心的な目的がDNNよりも計算上の優位性を提供することを考えると、"現在のQNNは潜在的な利点のある現実の問題を解決するのに十分なものであるか?
訳抜け防止モード: QNNの野心的な目標は、現実世界のタスクにおいて、DNNよりも計算上の優位性を提供することである。 現在のQNNでは十分か? 潜在的な利点のある現実世界の問題を解決するには? 応答が負であれば,‘QNNとDNNのギャップはどうなっているのか?
0.83
Problem setup. We inherit the tradition in DNNs to understand the trainability and generalization of QNNs [41]. 問題設定。 我々は、DNNにおける伝統を継承し、QNNの訓練性と一般化を理解する[41]。
訳抜け防止モード: 問題設定。 我々はDNNの伝統を継承する QNNの訓練性と一般化を理解する[41]。
0.75
Particularly, the explicit form of the measure of the generalization error bound is 特に、一般化誤差境界の測度の明示的な形式は、 0.66
i=1 C(cid:16)h( ˆθ, x(i)), y(i)(cid:17) − Ex,y(cid:16)C(h( ˆθ, x), y)(cid:17) , n(cid:80)n ˆRS( ˆθ) − R( ˆθ) := 1 i=1 c(cid:16)h( sθ, x(i)), y(i)(cid:17) − ex,y(cid:16)c(h( sθ, x), y)(cid:17) , n(cid:80)n s( sθ) − r( sθ) := 1 0.94
where S = {(x(i), y(i))}n i=1 denotes the given training dataset sampled from the domain X × Y, h( ˆθ,·) ∈ H refers to the hypothesis inferred by QNN with H being the hypothesis space and ˆθ being the trained parameters, C : H × (X × Y) → R+ is the designated loss function, and ˆRS( ˆθ) (or R( ˆθ)) represents the empirical (or expected) risk [42]. S = {(x(i), y(i))}n i=1 は、ドメイン X × Y からサンプリングされた与えられたトレーニングデータセットを表わすとき、h( yθ,·) ∈ H は、仮説空間である H が QNN によって推論された仮説、そして、C : H × (X × Y) → R+ は指定された損失関数であり、C : H × (X × Y) → R+ は経験的(または予想される)リスク [42] を表す。 0.85
The generalization error bound in Eqn. eqn に束縛された一般化誤差。 0.57
(1) concerns when and how minimizing ˆRS( ˆθ) is a sensible approach to minimizing R( ˆθ). 1 は、いつ、どのように最小化されるかが関係し、r( θ) を最小化するための賢明なアプローチである。
訳抜け防止モード: (1)いつ、どのように懸念するか R の最小化は R の最小化に対する合理的なアプローチである。
0.71
A low error bound suggests that the unearthed rule h( ˆθ) from the dataset S can well generalize to the unseen data sampled from the same domain. 低い誤差境界は、データセット S から発掘されたルール h( シュθ) が、同じ領域からサンプリングされた見当たらないデータにうまく一般化できることを示している。 0.62
Note that since the probability 注意すべきは 確率が 0.74
2 ℋTarget conceptInferred hypothesisℋ𝑄ℋ𝐷⋯Optimization path (QNN)⋯Optimization path (DNN)Evident quantum advantage (IBM synthetic data; Discrete logarithm problem).Inferred by QNN or DNN; Possible quantum advantage;No quantum advantage (to be validated).0𝜀𝑥0𝑥𝛻𝑓𝑄𝛻𝑓𝐷 2 HTarget concept Inferred hypothesisHQHD\Optim ization path (QNN) 最適化パス (DNN)Evident quantum advantage (IBM synthesis data; Discrete logarithm problem). Infered by QNN or DNN; Possible quantum advantage; No quantum advantage (to be validd). 0εx0x\fQ\fD 0.86
英語(論文から抽出)日本語訳スコア
distribution behind data domain is generally inaccessible, the term R( ˆθ) is intractable. データ領域の後方の分布は一般に到達不能であり、R(?) という用語は難解である。 0.62
A generic strategy is ˜n(cid:80)˜n employing the test dataset ˜S ∼ X × Y to estimate this term, i.e., R( ˆθ) ≈ 1 i=1 (cid:96)(h( ˆθ, ˜x(i)), ˜y(i)) with ( ˜x(i)), ˜y(i)) ∈ ˜S. 一般的な戦略は、この項を推定するために、テストデータセット s(cid:80) を s(x × y) で用い、すなわち、r( zyθ) s 1 i=1 (cid:96)(h( sθ, sx(i)), sy(i)) と (s(x(i)), sy(i)) ∈ s を推定する。 0.76
The trainability concerns the convergence rate of the trained parameters of QNN towards the optimal parameters. トレーサビリティは、qnnの訓練パラメータの最適パラメータへの収束率に関するものである。 0.78
The mathematical form of the optimal parameters θ∗ satisfies 最適パラメータθ∗ の数学的形式は満足する 0.87
θ∗ = arg min θ∗ =arg min 0.76
θ ˆRS(θ) = arg min θ シュRS(θ) = arg min 0.83
θ 1 n n(cid:88)i=1 θ 1n n(cid:88)i=1 0.77
C(cid:16)h(θ, x(i)), y(i)(cid:17) . c(cid:16)h(θ, x(i)), y(i)(cid:17) である。 0.93
(1) Intuitively, the inferred hypothesis (or equivalently, the trained parameters) is expected to achieve the minimized empirical risk ˆRS(θ). (1) 直観的には、推論された仮説(あるいは訓練されたパラメーター)は最小化された経験的リスク srs(θ) を達成することが期待される。 0.71
Considering that the loss landscape of QNNs is generally non-convex and non-concave, which implies the computational hardness of seeking θ∗, an alternative way to examine the trainability of QNN is analyzing its convergence rate, i.e., QNNのロスランドスケープが一般に非凸かつ非凹であり、θ∗を求める際の計算困難さを暗示していることを考えると、QNNのトレーニング可能性を調べる別の方法、すなわち、収束速度を解析している。 0.62
J (θ) = E[(cid:107)∇θ ˆRS(θ)(cid:107)], J (θ) = E[(cid:107) θ >RS(θ)(cid:107)], 0.91
(2) where the expectation is taken over the randomness from the sample error and gate noise [34]. (2) サンプルエラーとゲートノイズのランダム性に 期待が乗じています [34] 0.77
In other words, the metric J (θ) evaluates how far the trainable parameters of QNN are away from the stationary point (cid:107)∇θ ˆRS(θ)(cid:107) = 0. 言い換えると、計量 j (θ) は qnn の訓練可能なパラメータが静止点 (cid:107) からどこまで離れているかを評価する(cid:107)。 0.65
Following the above explanations, understanding the learnability of QNNs amounts to exploring whether QNNs possess better generalization ability than DNNs on certain real-world datasets in terms of Eqn. 上記の説明に従うと、QNNの学習可能性を理解することは、QNNが特定の実世界のデータセット上でのDNNよりも優れた一般化能力を持っているかどうかをEqnで調べることに等しい。 0.55
(1) under both the noiseless and NISQ scenarios. 1)ノイズレスシナリオとNISQシナリオの両方において。 0.73
Furthermore, it is crucial to understand whether the trainability of QNNs can be enhanced by regularization techniques measured by Eqn. さらに,eqnで測定した正則化手法により,qnnのトレーサビリティが向上するかどうかを理解することが重要である。 0.60
(2). Contributions. Through systematic numerical simulations, we empirically exhibit the dilemma of QNNs such that it is hard to directly use current QNNs to gain quantum advantages on real-world datasets. (2). 貢献。 系統的数値シミュレーションにより,実世界のデータセットにおいて,現在のqnnを直接利用して量子長所を得ることが困難となるような,qnnのジレンマを実証的に提示する。 0.70
Meanwhile, current QNNs suffers from the poor trainability. 一方、現在のQNNはトレーニングの容易さに悩まされている。 0.47
The main contributions of our study are as follows. 私たちの研究の主な貢献は以下の通りである。 0.73
1. We compare the performance of QNNs and DNNs on larger-scale datasets than those used in previous literature to quantify the trainability and generalization ability of QNNs under both the noiseless and NISQ scenarios. 1. 大規模データセットにおけるQNNとDNNの性能を従来の文献と比較し,ノイズレスシナリオとNISQシナリオの両方でQNNのトレーニング性と一般化能力を定量化する。 0.84
As exhibited in Figure 1, we observe the poor model capacity of QNNs by conducting randomization experiments proposed by [10]. 図1に示すように、[10]によって提案されたランダム化実験により、QNNのモデル能力の低下を観察する。 0.70
Since the effective model capacity determines the model’s generalization error bounds, our results suggest that the generalization error bounds of QNNs achieved by statistical learning theory are generally tight [31, 32, 33, 35, 36, 37]. 実効モデルキャパシティはモデルの一般化誤差境界を決定するので、統計的学習理論によって達成されるQNNの一般化誤差境界は、一般的には[31, 32, 33, 35, 36, 37] である。 0.83
In addition, QNNs do not gain obvious trainability enhanced assisted by regularization techniques, which sharply differs from DNNs. さらに、QNNは、DNNと大きく異なる正規化技術によって強化された明らかな訓練性を得ることができない。 0.56
These observations partially explain why current QNNs fail to surpass DNNs on real-world tasks. これらの観察は、現在のQNNが現実世界のタスクにおいてDNNを超えない理由を部分的に説明している。 0.52
2. We indicate the negative role of noise with respect to the generalization ability and trainability of QNNs. 2. 本稿では,QNNの一般化能力と訓練性に関して,雑音の負の役割を示す。 0.75
Specifically, quantum noise degenerates the model capacity and exacerbates the difficulty of optimization. 具体的には、量子ノイズはモデルの容量を劣化させ、最適化の困難を悪化させる。 0.50
To this end, we discuss possible solutions such as advanced error mitigation techniques to enhance the capability of QNNs on real-world datasets. そこで本研究では,実世界のデータセットにおけるqnnの能力を向上させるための,高度な誤り軽減手法などのソリューションについて論じる。 0.58
3. We build a benchmark to evaluate the performance of QNNs and DNNs on both quantum synthetic data and classical data, supporting a variety of predefined models of QNNs and providing flexible interface for researchers to define customizable architectures. 3. 我々は、量子合成データと古典データの両方でQNNとDNNの性能を評価するベンチマークを構築し、QNNの様々な事前定義されたモデルをサポートし、研究者がカスタマイズ可能なアーキテクチャを定義する柔軟なインターフェースを提供する。 0.77
The released benchmark will facilitate the standardization of assessment of various QNNs in QML community and provide a comparable reference in the design of QNNs. リリースされたベンチマークは、QMLコミュニティにおける様々なQNNの評価の標準化を促進し、QNNの設計に匹敵する参照を提供する。 0.70
The related code will be released to the Github repository. 関連するコードはGithubリポジトリにリリースされる予定だ。 0.83
3 3 0.85
英語(論文から抽出)日本語訳スコア
2 Preliminary Here we briefly recap QNNs that will be explored in this study. 2 予備報告 ここでは,本研究で検討するQNNについて概説する。 0.72
The foundation of quantum computing is provided in Appendix A. 量子コンピューティングの基礎は appendix a で提供されている。 0.76
Please refer to literature [43, 44, 45, 46] for comprehensive explanations. 包括的な説明については文献[43,44,45,46]を参照してください。 0.70
2.1 Quantum neural network Quantum neural networks (QNNs) can be treated as the quantum generalization of deep neural networks (DNNs), as illustrated in Figure 2. 2.1 量子ニューラルネットワーク(QNN)は、図2に示すように、ディープニューラルネットワーク(DNN)の量子一般化として扱うことができる。 0.81
Both of them leverage an optimizer to iteratively update parameters θ of a trainable model h(θ,·) to minimize a predefined loss function C(·,·). どちらも、トレーニング可能なモデル h(θ,·) のパラメータ θ を反復的に更新し、予め定義された損失関数 C(·,·) を最小化するためにオプティマイザを利用する。 0.78
The key difference between QNNs and DNNs is the strategy to implement the trainable model h(θ,·), where the former employs the parameter quantum circuits (PQCs), or equivalently ansätzes [43, 44, 47], while the latter utilizes neural networks [1]. QNNとDNNの主な違いは、トレーニング可能なモデルh(θ,·)を実装する戦略であり、前者はパラメータ量子回路(PQC)、または等価にアンセッツ[43, 44, 47]を使用し、後者はニューラルネットワーク[1]を使用する。 0.73
In particular, PQCs are constituted by the encoding part UE(·), the trainable part U (θ), and the readout part. 特に、PQCは、符号化部UE(·)、訓練可能部U(θ)、読み出し部によって構成される。 0.58
The purpose of UE(·) is loading classical information into the quantum form, as the precondition to proceed further quantum operators. ue(·)の目的は、量子演算子を進める前提条件として、古典情報を量子形式にロードすることである。
訳抜け防止モード: UE(·)の目的は 量子演算子を進める前提条件として、古典的な情報を量子形式にロードする。
0.78
Although there are many data encoding methods [48], here we mainly focus on the qubit-encoding method and its variants, because of their resource-efficient property. 多数のデータ符号化手法 [48] があるが, 資源効率が高いため, 主に qubit-encoding 法とその変種に着目している。 0.76
Once the quantum example is prepared, the trainable unitary U (θ) is applied to this state, followed by the quantum measurement {Πi} to extract quantum information into the classical form (see following subsections for details). 量子の例が準備されると、トレーニング可能なユニタリ U (θ) がこの状態に適用され、量子測度 {ii} が古典的な形に量子情報を抽出する(詳細については後述の節を参照)。 0.84
The collect classical information can either be used as the predicted label or the hidden feature, depending on the detailed QNN-based protocols. 収集された古典情報は、QNNベースのプロトコルによって予測されたラベルまたは隠れた特徴として使用できる。 0.71
In the subsequent three subsections, we elaborate on the implementation of three representative protocols, i.e., quantum naive neural network (QNNN) [20], quantum embedding neural network (QENN) [49], and quantum convolutional neural network (QCNN) [50], respectively. 続く3つの節では、量子ナイーブニューラルネットワーク(QNNN) [20]、量子埋め込みニューラルネットワーク(QENN) [49]、量子畳み込みニューラルネットワーク(QCNN) [50]の3つの代表的なプロトコルの実装について詳しく述べる。
訳抜け防止モード: その後の3つの節では、3つの代表的なプロトコルの実装について詳しく述べる。 量子ナイーブニューラルネットワーク(QNNN) [20] 量子埋め込みニューラルネットワーク (QENN ) [ 49 ] そして量子畳み込みニューラルネットワーク(QCNN) [50 ]
0.76
2.1.1 Quantum naive neural network We first follow Eqn. 2.1.1 量子ナイーブニューラルネットワーク 最初にEqnに従う。 0.66
(1) to elaborate on the implementation of PQCs, or equivalently, the hypothesis h(θ, x(i)), in QNNN. 1) QNNN における PQC の実装、あるいは同値な仮説 h(θ, x(i)) の実装について詳しく述べる。 0.67
As shown in Figure 2, the encoding circuit UE(·) loads the classical example into the quantum state by specifying data features as rotational angles of single-qubit gates. 図2に示すように、符号化回路UE(·)は、データ特徴を単一量子ゲートの回転角として指定することにより、古典的な例を量子状態にロードする。 0.71
Note that the topology of quantum in UE(·) can be varied, e g , a possible implementation is UE(x(i)) =(cid:78)d j ) [49]. UE(·) における量子の位相は、例えば UE(x(i)) = (cid:78)d j ) [49] である。 0.47
The trainable part U (θ) consists of trainable single-qubit quantum gates and fixed two quantum gates. トレーニング可能な部分U(θ)は、トレーニング可能な単一量子ビット量子ゲートと固定された2つの量子ゲートからなる。 0.57
Analogous to UE(·), the topology of U (θ) are versatile, where involving more gates promises a higher expressivity but a more challenged trainability [35, 51]. ue(·) と同様、u(θ) の位相は多様であり、より多くのゲートを含むと高い表現性を持つが、より挑戦的なトレーサビリティ [35, 51] が保証される。 0.61
Here we mainly focus on the hardware-efficient structure such that the construction of U (θ) obeys a layer-wise structure and the gates arrangement in each layer is identical. ここでは主に、u(θ) の構成が層状構造に従い、各層におけるゲート配置が同一であるようなハードウェア効率の高い構造に注目する。 0.82
The explicit form satisfies U (θ) =(cid:81)L l=1 Ul(θl), where L is the layer number and θl denotes the trainable parameters at the l-th layer. 明示的な形式は U (θ) = (cid:81)L l=1 Ul(θl) を満たす。
訳抜け防止モード: 明示形式は U ( θ ) = ( cid:81)L l=1 Ul(θl ) を満たす。 ここで L は層数であり θl は l - th 層のトレーニング可能なパラメータを表す。
0.77
To extract the quantum information into the classical form, QNNN applies POVMs {Πi}dy 量子情報を古典形式に抽出するために、QNNN は POVMs { i}dy を適用する。 0.76
i=1 to the state |ψ(x(i), θ)(cid:105) = U (θ)UE(x(i))|0(cid:105) i=1 to the state | (x(i), θ)(cid:105) = U (θ)UE(x(i))|0(cid:105) 0.98
j=1 RY(x(i) j=1 RY(x(i)) 0.85
⊗d, i.e., h(θ, x(i)) =(cid:104) Tr(cid:0)Π1 |ψ(x(i), θ)(cid:105)(cid:104)ψ(x(i), θ)|(cid:1) ,··· , Tr(cid:0)Πdy |ψ(x(i), θ)(cid:105)(cid:104)ψ(x(i), θ)|(cid:1)(cid:105)(cid :62) 略称は「d」。 h(θ, x(i)) =(cid:104) tr(cid:0)π1 |ψ(x(i), θ)(cid:105)(cid:104)ψ(x(i), θ)|(cid:1) ,·· , tr(cid:0)πdy |ψ(x(i), θ)(cid:105)(cid:104)ψ(x(i), θ)|(cid:1)(cid:105)(cid :62) 0.64
where dy is the dimension of the label space. ここでdyはラベル空間の次元です。 0.56
In the training process, we adopt the first-order optimizer to update トレーニングプロセスでは、ファーストオーダーオプティマイザを採用して更新します。 0.66
the parameters θ to minimize the loss function in Eqn. eqnにおける損失関数を最小化するためのパラメータθ。 0.79
(1), where the gradients ∂C(cid:0)h(θ, x(i)), y(i)(cid:1) /∂θ can (1)勾配 ∂c(cid:0)h(θ, x(i)), y(i)(cid:1) /∂θ がある場合 0.86
be analytically evaluated by the parameter shift rule [21]. パラメータシフト規則[21]により解析的に評価される。 0.79
The specific optimization algorithms used in this study are stochastic gradient descent (SGD) [52] and stochastic quantum natural gradient descent (SQNGD) [53]. 本研究では,確率的勾配降下 (sgd) [52] と確率的量子自然勾配降下 (sqngd) [53] を用いた。
訳抜け防止モード: 本研究で使用される具体的な最適化アルゴリズムは、確率勾配降下 (SGD ) [52 ] である。 そして確率量子自然勾配降下 (SQNGD ) [ 53 ]
0.80
More details can be seen in Appendix B. 詳細はAppendix Bで確認できる。 0.63
, (3) 4 , (3) 4 0.85
英語(論文から抽出)日本語訳スコア
Figure 2: The machinery of various QNNs. 図2: 様々なQNNの機械。 0.72
The schematic of QNN, depicted in the upper left, consists of a hybrid quantum-classical loop, where the quantum computer is employed to train the learnable parameters and the classical processor is utilized to perform the optimization or post-processing to the collected information from the quantum computer. 上左に描かれたqnnの図式は、学習可能なパラメータのトレーニングに量子コンピュータを使用し、量子コンピュータから収集した情報に対する最適化や後処理を行う、ハイブリッド量子古典ループで構成されている。
訳抜け防止モード: 左上に描かれたQNNのスキーマは、ハイブリッド量子-古典ループで構成されている。 量子コンピュータが学習可能なパラメータを そして、古典的プロセッサを使用して、量子コンピュータから収集された情報に最適化またはポスト処理を行う。
0.73
The dashed arrows mean that the loop is finite and terminated in the classical processor. 矢印は、ループが有限であり、古典プロセッサで終了することを意味する。 0.72
The paradigms of QNNN, QENN, and QCNN are shown in the lower left, lower right, and upper right, respectively. QNNN、QENN、QCNNのパラダイムはそれぞれ左下、右下、右上である。
訳抜け防止モード: 左下にはQNNN、QENN、QCNNのパラダイムが示されている。 右下 右上 右上 右下 右下 右下
0.51
The detailed realization of these QNNs is presented in Sections 2.1.1, 2.1.2, and 2.1.3. これらのqnnの詳細な実現はセクション 2.1.1, 2.1.2, 2.1.3 で示される。 0.52
2.1.2 Quantum embedding neural network Instead of separating the encoding part from the training part, QENN integrates them together into the embedding circuit where the encoding circuit and the training circuit are carried out alternately. 2.1.2 量子埋め込みニューラルネットワークは、符号化部とトレーニング部とを分離する代わりに、符号化回路とトレーニング回路とが交互に実行される埋め込み回路にそれらを一体化する。
訳抜け防止モード: 2.1.2 符号化部とトレーニング部を分離する代わりに、量子埋め込みニューラルネットワーク QENNはそれらを埋め込み回路に統合する 符号化回路とトレーニング回路は交互に実行される。
0.89
Specifically, in QENN, the employed PQCs are composed of multiple embedding layers equipped with trainable parameters, i.e., in each layer an encoding circuit U E (x(i)) is followed by a trainable circuit Ul(θl), as shown in Figure 2. 具体的には、QENNにおいて、使用するPQCは、トレーニング可能なパラメータを備えた複数の埋め込み層、すなわち各層で符号化回路UE(x(i))が続き、図2に示すように、トレーニング可能な回路Ul(θl)が続く。 0.71
Throughout the whole study, we consider an identical topology of U E (·) for different layers, as the repetition of embedding layer is demonstrated to implement the classically intractable feature maps [54] and increase the expressive power of QNN [55]. 本研究全体を通して、埋め込み層の繰り返しが古典的に難解な特徴写像 [54] を実装し、QNN [55] の表現力を高めることを実証するため、異なる層に対する U E (·) の同一位相を考える。 0.78
The explicit form of such PQCs can be written as l=1 UE(x(i))Ul(θl), where the meanings of L and θl are the same with those in QNNN. そのような PQC の明示的な形式は l=1 UE(x(i))Ul(θl) と書くことができ、L と θl の意味は QNNN のそれと同じである。 0.82
As for the training of QENN, the strategy of measurement and optimization are identical to QNNN in Subsection 2.1.1. qennのトレーニングについては、測定および最適化の戦略は、2.1.1でqnnnと同一である。 0.60
U (x, θ) =(cid:81)L U (x, θ) = (cid:81)L 0.99
(l) (l) 2.1.3 Quantum convolutional neural network Convolutional neural network (CNN) has demonstrated the superiority in images processing tasks, including two special local operators, i.e., convolution and pooling. (l) (l) 2.1.3 量子畳み込みニューラルネットワーク畳み込みニューラルネットワーク(cnn)は、画像処理タスクにおいて、畳み込みとプーリングの2つの特別なローカル演算子を含む優越性を示している。 0.80
The function of convolutional and pooling operations is extracting local features from the whole image and aggregating information from adjacent patches, respectively. 畳み込み操作とプール操作の機能は、画像全体から局所的特徴を抽出し、隣接するパッチから情報を集約する。 0.78
Unlike CNN, quantum CNN (QCNN) [50] completes the convolutional operation by the quantum convolutional layer to pursue better learning performance. CNNとは異なり、量子CNN(QCNN)[50]は、量子畳み込み層による畳み込み操作を完了し、より良い学習性能を追求する。 0.73
Particularly, in the quantum convolutional layer, a fraction of the input image is embedded into the quantum circuit UE(·), interacted with PQCs U (θ), followed by the quantum measurements to extract the corresponding semantic features. 特に、量子畳み込み層では、入力画像の一部が量子回路 ue(·) に埋め込まれ、pqcs u (θ) と相互作用し、対応する意味的特徴を抽出するために量子測定が行われる。 0.71
As shown in Figure 2, unlike QNNN and QENN, where the collected classical information is directly utilized as the predictable 図2に示すように、収集された古典情報が予測可能なものとして直接利用されるQNNNやQENNとは異なり、 0.73
5 𝑈𝐸(𝑥)𝑈1(θ1)𝑈2(θ2)𝑈3(θ3)𝑈2(θ2)𝑈4(θ4)EncodingLearnableq uantum circuitDecodingQuanv 1QNNQCNNQuantum computerClassical processor⋯⋯⋯𝑈𝐸(𝑥)𝑈1(θ1)Hidden layer⋮⋮Embeddinglayer𝑈2(θ2)𝑈𝐿(θ𝐿)QNNN⋮𝑈𝐸(1)(𝑥)⋮⋯⋯⋯𝑈1(θ1)𝑈𝐸(L)(𝑥)𝑈𝐿(θ𝐿)Embedding layerQENNUpdatedor input dataparameters 5 ue(x)u1(θ1)u2(θ2)u3(θ3)u2(θ2)u4(θ4)encodinglearnableq uantum circuitdecodingquanv 1qnnqcnnquantum computerclassical processor ue(x)u1(θ1)hidden layersembeddinglayer u2(θ2)ul(θl)qnnn\ue(1)(x)\u1(θ1)ue(l)(x)ul(θl)embedding layerqennupdatedor input dataparameters 0.80
英語(論文から抽出)日本語訳スコア
label, the output of the quantum convolutional layer is treated as a hidden feature map which is taken as the input for the next quantum convolutional layer. ラベルにより、量子畳み込み層の出力は、次の量子畳み込み層の入力として取られる隠れ特徴マップとして扱われる。 0.75
After several quantum convolutional operations, a classical fully connected layer with activation function [1] acts on the extracted features to make predictions. いくつかの量子畳み込み演算の後、活性化関数 [1] を持つ古典的完全連結層は抽出された特徴に作用して予測を行う。 0.76
3 The generalization of quantum neural networks In this section, we explore the generalization ability of representative QNNs introduced in Section 2. 3 量子ニューラルネットワークの一般化 この節では、第2節で導入された代表QNNの一般化能力について検討する。 0.73
To be more concrete, we first apply these QNNs to learn real-world datasets and compare their performance with classical DNNs with varied parameter settings, i.e., the multi-layer perceptron (MLP) and convolutional neural network (CNN) whose number of trainable parameters is similar to QNNs, the over-parameterized multi-layer perceptron (MLP++) whose number of trainable parameters can be extremely large [56, 5]. より具体的には、これらのQNNを用いて実世界のデータセットを学習し、その性能を従来のDNNと様々なパラメータ設定で比較する。すなわち、トレーニング可能なパラメータの数がQNNに類似しているマルチ層パーセプトロン(MLP)と畳み込みニューラルネットワーク(CNN)、トレーニング可能なパラメータの数が極めて大きいオーバーパラメータ化されたマルチ層パーセプトロン(MLP++)である。 0.80
We further conduct systematical simulations to benchmark the effective model capacity of QNNs and DNNs, since this measure the determines generalization ability of learning models [2, 10], We experiment on two real-world datasets, i.e., the Wine dataset [57] and MNIST handwritten digit dataset [58], to examine the generalization ability of QNNs and DNNs. さらに,学習モデルの一般化能力を決定するため,QNNとDNNの効果的なモデルキャパシティのベンチマークを行うため,実世界の2つのデータセット,すなわちワインデータセット[57]とMNIST手書き桁データセット[58]を実験し,QNNとDNNの一般化能力を検証した。 0.77
The Wine dataset, collected from UCI Machine Learning Repository [57], consists of 130 examples, where each example is described by a feature vector with 13 attributes determining the origin of wines. UCI Machine Learning Repository [57]から収集されたワインデータセットは130の例で構成され、それぞれの例はワインの起源を決定する13の属性を持つ特徴ベクトルによって記述される。 0.83
MNIST dataset includes ten thousands hand-written digit images, where each image has 28 × 28 pixels. mnistデータセットには、28×28ピクセルの手書きデジタル画像が1万個含まれている。 0.69
With the aim of removing data-dependent bias as much as possible, we also assess the generalization ability of the quantum synthetic data proposed by [20]. また,データ依存バイアスを極力除去することを目的として,[20]で提案した量子合成データの一般化能力を評価した。 0.84
Specifically, we train QNNN, QENN, and MLP on the Wine dataset and quantum synthetic dataset which represent 1-dimensional features; and apply QCNN, CNN and MLP on MNIST dataset for the case of 2-dimensional features. 具体的には、ワインデータセットと1次元特徴を表す量子合成データセット上でQNNN、QENN、MLPを訓練し、MNISTデータセット上で2次元特徴の場合にQCNN、CNN、MLPを適用する。 0.78
Note that QNNN and QENN are excluded when processing image data because it requires unaffordable number of qubits when embedding the high dimensional image into a quantum circuit. qnnn と qenn は、高次元画像を量子回路に埋め込む際に、耐え難い数の量子ビットを必要とするため、画像データを処理する際に除外される。
訳抜け防止モード: QNNNとQENNは画像データを処理する際に除外される。 量子回路に高次元の画像を埋め込むには 膨大な数の量子ビットが必要です
0.80
For suppressing the effects of randomness, the statistical results are collected by repeating each setting with 10 times. ランダム性の影響を抑制するために、各設定を10回繰り返して統計結果を収集する。 0.77
Figure 3: Learning performance on quantum data and classical data with true labels. 図3: 量子データと真のラベルを持つ古典データでの学習性能。 0.86
G-Error represents the generalization error. G-エラーは一般化誤差を表す。 0.62
(a), (b) and (c) show the accuracy of various models changing with training epochs, when training on quantum synthetic data, the Wine data and MNIST respectively. (a), (b) および (c) は、それぞれ量子合成データ、ワインデータ、MNISTのトレーニングにおいて、訓練エポックとともに変化する様々なモデルの精度を示す。 0.84
The bar chart inserted into each figure represents the generalization error of each model. 各図に挿入されたバーチャートは、各モデルの一般化誤差を表す。 0.80
Before moving on to present experiment results, let us address the generalization error measure defined in 実験結果の提示に先立ち,本項で定義した一般化誤差尺度について取り上げる。 0.76
6  54.   ..:7,.,":,39:2  54.    -30   54.    .$%""! 6  54.   ..:7,.,":,39:2  54.    -30   54.    .$%""! 0.60
 7747""!  7747""! 0.85
 7747!  7747! 0.85
"    7747"97,3"9089"97,3"9089!97,3!9089"97,3"908997,39089 "    7747"97,3"9089"97,3"9089!97,3!9089"97,3"908997,39089 0.19
英語(論文から抽出)日本語訳スコア
Eqn. (1). eqnです (1). 0.71
Particularly, there are two components that together completely characterize the generalization error, i.e., the empirical risk ˆRS( ˆθ) and the expected risk R( ˆθ). 特に、2つの成分が結合して一般化誤差、すなわち経験的リスク RRS(英語版) と期待されるリスク R(英語版) を完全に特徴づける。 0.63
In our experiments, we employ the accuracy of the training set to quantify the empirical risk in which high train accuracy reflects low ˆRS( ˆθ). 実験では, 訓練セットの精度を用いて, 高い列車精度が低比重を反映する経験的リスクを定量化した。 0.70
Meanwhile, following the explanation in Eqn. 一方、eqnでの説明に従います。 0.72
(1), the accuracy on the test set is adopted to estimate the expected risk such that high test accuracy implies low R( ˆθ). 1) テストセットの精度は, 高いテスト精度が低いr(sθ) を示すように, 期待されるリスクを推定するために採用する。 0.85
Under the above insights, when a learning model possesses a good generalization ability, it should achieve high train accuracy and test accuracy, as well as a small gap between them. 以上の知見の下では、学習モデルが優れた一般化能力を有する場合、列車の精度と試験精度を向上し、それらの差を小さくする。 0.67
The learning performance of QNNs and DNNs for the quantum synthetic dataset and real-world datasets is exhibited in Figure 3. 量子合成データセットと実世界のデータセットに対するQNNとDNNの学習性能を図3に示す。 0.85
Towards the quantum synthetic dataset, both the train and test accuracy of QNNN and QENN fast converge to the 92% after 20 epoch. 量子合成データセットに向けて、QNNNとQENNの列車と試験の精度は、20世紀以降の92%に急速に収束する。 0.81
Conversely, although the train accuracy of MLP reaches 90% after 30 epoch, its test accuracy is no better than the random guess. 逆に、MLPの列車精度は30年代以降で90%に達するが、その試験精度はランダムな推測よりは良くない。 0.83
Therefore, the generalization error of classical DNNs, i.e., the discrepancy between train accuracy and test accuracy, is much higher than that of quantum models (0.4 for MLP versus 0.01 for QNNN and QENN), as demonstrated in the bar chart inserted in Figure 3 (a). したがって、図3(a)に示すように、古典的DNNの一般化誤差、すなわち列車の精度と試験精度の差は量子モデルよりもはるかに大きい(MLPは0.4、QNNNは0.01、QENNは0.01)。 0.68
However, the learning performance behaves quite different when the above models are applied to learn real-world datasets. しかし、上記のモデルを適用して現実世界のデータセットを学習する場合、学習性能は極めて異なる振る舞いをする。
訳抜け防止モード: しかし 学習性能は 上記のモデルは、現実世界のデータセットを学ぶために適用されます。
0.81
As shown in Figure 3 (b), there exists an evident step-by-step accuracy dropping on Wine dataset along the sequence of MLP, QENN, and QNNN. 図3(b)に示すように、MLP、QENN、QNNNのシーケンスに沿って、ワインデータセットに明らかにステップバイステップの精度低下が存在する。 0.72
In particular, QNNN and QENN fall behind MLP by 10% to 20%. 特にQNNNとQENNはMLPに10%から20%遅れている。 0.69
Meantime, there is a more serious performance degradation for quantum models evaluated by test accuracy, especially for QNNN which holds almost 15% generalization error that is three times higher than that of MLP. 一方、テスト精度によって評価された量子モデルでは、特に、mlpの3倍高い約15%の一般化誤差を持つqnnnでは、より深刻な性能低下がある。 0.72
The learning performance of QCNN and CNN on MNIST dataset obeys the same manner. MNISTデータセット上でのQCNNとCNNの学習性能も同様である。 0.80
As depicted in Figure 3 (c), QCNN achieves 93% accuracy on both training and test set, which is slightly worse than CNN by approximately 3%. 図3(c)に示すように、QCNNはトレーニングセットとテストセットの両方で93%の精度を実現しています。
訳抜け防止モード: 図3(c)に示すように QCNNは、トレーニングとテストセットの両方で93%の精度を達成する。 これはCNNよりも約3%悪い。
0.80
It is worth noting that the relatively small gap among three models is most attributed to the subtle differences in the network structure, where QCNN, CNN and MLP only differs in the first layer (Appendix C). 3つのモデル間の比較的小さなギャップは、QCNN、CNN、MLPが第1層(Appendix C)でのみ異なるネットワーク構造の微妙な違いに起因する。 0.63
Figure 4: Trainability of different models on quantum data and classical data with random labels. 図4: ランダムラベルを持つ量子データと古典データの異なるモデルのトレーニング可能性。 0.87
(a) shows how various models fit quantum data with random labels. (a)様々なモデルがランダムラベルの量子データにどのように適合するかを示す。 0.68
MLP++, representing MLP with larger scale, achieves zero training error. MLP++はMLPを大規模に表現し、トレーニングエラーをゼロにする。 0.70
(b) shows the changes of accuracy when fitting classical data with random labels. (b)古典データにランダムラベルを付ける際の精度の変化を示す。 0.81
MLP can still completely fit the random labels. MLPは依然としてランダムラベルに完全に適合する。 0.64
(c) shows the ability of fitting MNIST with random labels. (c) MNISTをランダムラベルに適合させる能力を示す。 0.78
No model performs better than random guess. ランダムな推測よりも優れたモデルはない。 0.69
The generalization ability of a learning model is dominated by its effective model capacity, which concerns the model’s ability to fit random labels [10]. 学習モデルの一般化能力は、モデルがランダムラベルに適合する能力 [10] に関する効果的なモデルキャパシティに支配されている。 0.81
Namely, a learning model possesses a high effective model capacity when it reaches a high train accuracy on a dataset with random labels, as ensured by the randomization test in non-parametric statistics. すなわち、非パラメトリック統計学におけるランダム化テストによって保証されるように、学習モデルはランダムラベル付きデータセット上で高い列車精度に達すると、高い有効モデル能力を有する。 0.80
Empirical studies have validated that DNNs possess sufficient effective model DNNが十分な有効モデルを持っていることを実証した実証的研究 0.61
7  54.    ..:7,.,":,39:2  54.    -30   54.     .$%    "97,3"9089"97,3"9089!97,3!9089!97,3!9089"97,3"908997,39089 7  54.    ..:7,.,":,39:2  54.    -30   54.     .$%    "97,3"9089"97,3"9089!97,3!9089!97,3!9089"97,3"908997,39089 0.51
英語(論文から抽出)日本語訳スコア
capacity and speculated that this property contributes to the great success of DNN. キャパシティと推測では、この特性はDNNの大きな成功に寄与している。 0.63
With this regard, we conduct randomization experiments on both QNNs and DNNs to compare their effective model capacity. そこで本研究では,QNNとDNNの両方でランダム化実験を行い,その有効モデル容量を比較した。 0.74
The results related to the effective model capacity are shown in Figure 4, which reveal a large gap between QNNs and DNNs, regardless of whether the training data is quantum or classical. 実効モデル容量に関する結果は図4に示され、トレーニングデータが量子的か古典的かに関わらず、QNNとDNNの間に大きなギャップがあることが示されている。 0.78
In particular, QNNs achieve relatively low train accuracy (0.562 for QNNN and 0.630 for QENN) which is only slightly better than random guess. 特に、QNNは列車の精度が比較的低い(QNNNは0.562、QENNは0.630)。 0.64
By contrast, for DNNs, MLP reaches 90% and the perfect 100% train accuracy on the quantum synthetic dataset and Wine dataset respectively after 40 epochs. 対照的に、DNNでは、MLPは90%に達し、量子合成データセットとWineデータセットはそれぞれ40時間後に100%のトレーニング精度を達成している。 0.69
If we further increase the number of trainable parameters of MLP (MLP++), it will also completely fit the quantum synthetic data with random labels, as shown by the purple line in Figure 4 (a). MLP(MLP++)のトレーニング可能なパラメータの数をさらに増やせば、図4(a)の紫色の線で示されるように、量子合成データにランダムラベルが完全に適合する。 0.75
Note that the same strategy is inappropriate to be applied to QNNs, because increasing trainable parameters will incur both the barren plateau issues and the accumulated quantum noise, which hinder the optimization [34]. トレーニング可能なパラメータの増加は、バレン高原問題と、最適化[34]を妨げる蓄積量子ノイズの両方を引き起こすため、QNNにも同じ戦略を適用するのは不適切である。 0.70
As for MNIST, all these models fail to fit the random labels, whose behavior imitates the random guess. MNISTについては、これらのモデルは全てランダムなラベルに適合せず、その振る舞いはランダムな推測を模倣する。 0.65
Similarly, we can enlarge the scale of MLP to obtain a leap of accuracy on training set with random labels at the expense of little growth of training time, as indicated by the purple line in Figure 4 (c). 同様に、図4(c)の紫色の線で示されるように、MLPのスケールを拡大し、トレーニング時間の少なさを犠牲にしてランダムラベル付きトレーニングセットの精度を飛躍的に向上させることができる。 0.73
Remark. We defer the study of the generalization ability of QNNs under the NISQ case in Appendix D. In a nutshell, by realizing QNNs on NISQ chips to complete above experiments, we conclude that quantum noise largely weakens the effective model capacity and generalization of QNNs. コメント。 簡単に言えば、NISQチップ上でQNNを実現して上記の実験を完了させることにより、量子ノイズがQNNの有効なモデルキャパシティと一般化を大幅に弱めると結論付ける。
訳抜け防止モード: コメント。 我々は,Appendix D の NISQ の場合において,QNN の一般化能力に関する研究を軽視する。 NISQチップ上でQNNを実現することで、上記の実験を完了します。 量子ノイズはQNNの有効モデルキャパシティと一般化を大幅に弱めると結論付けている。
0.58
Implications 3.1 The achieved results indicate the following three substantial implications with respect to the dilemma of existing QNNs. 意味 3.1 得られた結果は、既存のQNNのジレンマに関して、以下の3つの重要な意味を示している。 0.42
1. The learning performance of current QNNs is no better than DNNs on real-world datasets. 1. 現在のQNNの学習性能は、実世界のデータセット上のDNNに匹敵するものではない。 0.76
This observation questions the necessity to employ QNNs to tackle real-world learning tasks, since it remains elusive how QNNs can benefit these tasks. この観察は、QNNがこれらのタスクにどのような恩恵をもたらすのかを解明するため、現実世界の学習課題に取り組むためにQNNを採用する必要性に疑問を呈する。 0.53
2. The effective model complexity of current QNNs is poor, which is stark contrast with DNNs. 2. 現在のQNNの効果的なモデル複雑性は貧弱であり、DNNとは対照的である。 0.81
The low effective model complexity enables us to leverage statistical learning theory to analyze the generalization ability of QNNs with a tight bound [36, 32]. 低効率なモデル複雑性により,統計的学習理論を活用し,密結合 [36, 32] を持つqnnの一般化能力を解析できる。 0.84
Nevertheless, as shown in Figure 1, a severely restricted model capacity fails to cover complicated target concepts in real-world tasks, which prohibits the applicability of QNNs. しかしながら、図1に示すように、厳格に制限されたモデル容量は、QNNの適用性を禁止している現実世界のタスクにおける複雑なターゲット概念をカバーできない。 0.67
3. The limited model capacity is further reduced by imperfection of NISQ machines. 3. NISQマシンの不完全化により、限られたモデル容量がさらに削減される。 0.72
The narrowed hypothesis space deteriorates the performance of QNNs. 狭められた 仮説空間はQNNの性能を劣化させる。 0.65
There are two possible directions to seek potential advantages of QNNs over DNNs. DNNに対するQNNの潜在的な優位性を求めるには2つの可能性がある。 0.63
The first way is designing clever over-parameterizatio n quantum learning models as with DNNs. 第一の方法は、DNNと同様、巧妙な過パラメータ化量子学習モデルを設計することだ。 0.58
Partial evidence to support this solution is the improved performance of QENN compared with QNNN. このソリューションを支持する部分的な証拠は、QNNNと比較してQENNのパフォーマンスの改善である。 0.62
A critical issue in such a model design is how to avoid barren plateau phenomenons [40]. このようなモデル設計における重要な問題は、バレン高原現象を避ける方法である[40]。 0.81
The second way is to develop new paradigm of quantum models to further introduce nonlinearity into quantum learning pipeline. 第二の方法は、量子モデルの新しいパラダイムを開発し、量子学習パイプラインにさらに非線形性を導入することである。
訳抜け防止モード: 2つ目の方法は 量子学習パイプラインに非線形性をさらに導入する量子モデルの新しいパラダイムを開発する。
0.78
For instance, theoretical results have proven potential advantages of quantum kernels [20, 59, 60]. 例えば、理論的結果は量子核 [20, 59, 60] の潜在的な利点を証明している。 0.74
4 Trainability of quantum models Here we investigate the trainability of QNNs, which serves as another dominant factor manipulating the learnability of quantum models. 4 量子モデルのトレーサビリティ 量子モデルの学習可能性を操作するもう1つの主要な要因であるqnnのトレーサビリティについて検討する。 0.79
In particular, we first examine the performance of QNNN and QENN on the Wine dataset with consideration of various implicit and explicit regularization techniques under the noiseless 特に、ノイズレスの下での暗黙的および明示的な正規化手法を考慮したワインデータセットにおけるQNNNとQENNの性能について検討する。 0.67
8 8 0.85
英語(論文から抽出)日本語訳スコア
scenario. Subsequently, for the purpose of understanding how quantum noise affects the performance of QNNs, we conduct the same experiments under the noisy scenario in which the noisy model is extracted from ibmq_16_melbourne, which is one of the IBM Quantum Canary Processors [61]. シナリオ その後、量子ノイズがqnnの性能に与える影響を理解するために、ibm量子カナリアプロセッサ[61]の1つであるibmq_16_melbourneからノイズモデルを抽出した雑音条件下で同じ実験を行う。 0.59
Recall a learning model, e g , QNNs or DNNs, is warranted to possessing a good trainability if it requires a small number of epochs to surpass a threshold accuracy and fast converges to a stationary point, i.e., the term J (θ) → 0 in Eqn. 学習モデル、例えば QNN や DNN をリコールすることは、しきい値の精度を超えるために少数のエポックを必要とする場合、すなわち、Eqn における J (θ) → 0 という用語に素早く収束すると、優れた訓練性を持つことが保証される。 0.79
(2). Many theoretical studies in the regime of deep learning have proven that SGD can help learning models escape saddle points efficiently [62, 63]. (2). 深層学習の過程における多くの理論的研究は、SGDが学習モデルを効率的にサドルポイントから逃れるのに役立つことを証明している[62, 63]。
訳抜け防止モード: (2). 深層学習の体系に関する多くの理論的研究は sgdはモデルがサドルポイントから効率的に逃れるのを助ける [62, 63]。
0.83
Moreover, recent study demonstrated that a quantum variant of SGD, i.e., stochastic quantum natural gradient descent (SQNGD) [53], can well address the barren plateau’s issue. さらに、最近の研究では、sgdの量子変種、すなわち確率的量子自然勾配降下 (sqngd) [53] が、不毛高原の問題にうまく対処できることが示されている。 0.72
Driven by the success of SGD in deep learning and the power of SQNGD, an immediate interest is exploring whether these two methods can enhance the trainability of QNNs, especially for alleviating barren plateaus issues. 深層学習におけるsgdの成功とsqngdの力によって、これらの2つの手法がqnnのトレーナー性を高めることができるかどうか、特に不毛高原問題を軽減するためである。
訳抜け防止モード: 深層学習におけるSGDの成功とSQNGDの力 直近の関心は これら2つの手法はQNNのトレーニング性を高め、特に不毛の高原問題を緩和する。
0.64
(a) (b) Figure 5: Effects of regularizations on the performance of quantum model on Wine dataset. (a) (b) 図5: 正則化がワインデータセットにおける量子モデルの性能に及ぼす影響。 0.86
The labels ‘GD’, ‘SGD’, ‘SQNGD’, ‘WD’, and ‘N’ refer to the gradient descent optimizer, stochastic gradient descent optimizer, the stochastic quantum natural gradient descent optimizer, the weight decay, and execution of experiments on NISQ chips, respectively. ラベルの‘GD’、‘SGD’、‘SQNGD’、‘WD’、‘N’はそれぞれ、勾配降下最適化器、確率勾配降下最適化器、確率量子自然勾配降下最適化器、重量減衰器、NISQチップの実験の実行を指す。 0.58
(a) describes the effects of regularizations on optimization. (a)最適化に対する正規化の効果を述べる。 0.80
SGD plays a significant role in accelerating convergence and achieving higher accuracy, while others the optimization process instead of boosting performance. SGDは収束を加速し、より高い精度を達成する上で重要な役割を担っている。
訳抜け防止モード: SGDは収束を加速し、高い精度を達成する上で重要な役割を果たしている。 一方、パフォーマンスを向上する代わりに最適化プロセスがある。
0.56
(b) is the learning curve of GD with more training epochs. b) GDの学習曲線であり, より訓練的なエポックである。 0.79
The experiment results are summarized in Figure 5. 実験結果は図5にまとめられます。 0.80
With the aim of investigating whether SGD facilitates the quantum model optimization, we also apply gradient descent (GD) optimizer to learn the same tasks as a reference. sgdが量子モデル最適化を促進するかどうかを調べることを目的として,勾配降下(gd)オプティマイザを用いて参照と同じタスクを学習する。 0.68
Specifically, Figure 5 (a) depicts that the train accuracy of QNNN and QENN optimized by SGD rapidly rises to 70% after 20 epochs, while its train accuracy remains at around 50% with the GD optimizer. 具体的には、図5(a)は、SGDにより最適化されたQNNNとQENNの列車精度が20年代以降で急速に70%まで上昇し、GDオプティマイザの列車精度は50%程度である。 0.75
Meanwhile, QNNN with SGD optimizer achieves higher test accuracy than that in the setting of GD (at least 20%). 一方、SGDオプティマイザを備えたQNNNは、GDの設定よりも高いテスト精度を達成する(少なくとも20%)。 0.60
Surprisingly, SQNGD, the quantum natural gradient version of SGD, further expands the accuracy gap by 10%, reaching to the highest accuracy and fastest convergence of QNNN. 驚くべきことに、SGDの量子自然勾配バージョンであるSQNGDは、精度ギャップをさらに10%拡大し、QNNNの最高精度と最速収束に到達した。 0.71
Notably, the performance of QNNN with GD optimizer presents a monotone increasing trend, which suggests that the model may potentially reach higher performance with more training epochs. 特に、GDオプティマイザを用いたQNNNの性能はモノトーンの増加傾向を示し、このモデルがより多くのトレーニングエポックでより高いパフォーマンスに達する可能性があることを示唆している。 0.57
Therefore, we extend the total training epochs from 100 to 500 and train the QENN with GD. そこで本研究では,100から500までのトレーニングエポックを拡張し,QENNをGDでトレーニングする。 0.68
Figure 5 (b) shows that the accuracy of QENN trained by GD has been increasing smoothly and reaches 80% after 500 epochs, narrowing the gap between GD and SGD from 30% to 10%. 図5(b)は、gdによって訓練されたqennの精度がスムースに向上し、500エポックを経て80%に達し、gdとsgdの間のギャップを30%から10%に狭めていることを示している。 0.58
Motivated by the large gain from SGD, we conduct additional experiments to exploit how the batch size affects the learning performance of QNNs. SGDから大きな利益を得て、バッチサイズがQNNの学習性能にどのように影響するかを活用するための追加実験を行った。 0.66
Specifically, we train QNNs many times on the Wine data by SGD with batch size growing exponentially. 具体的には、バッチサイズが指数関数的に増大するSGDにより、ワインデータ上でQNNを何度も訓練する。 0.53
As shown in Figure 6, for both QNNN and QENN, the increased batch 図6に示すように、QNNNとQENNでは、バッチが増加します。 0.74
9     54.     ..:7,."     54."     97,3908997,3908997,3$9089$97,3$9089$97,3$9089$97,3$"9089$"      54.      ..:7,.97,3908997,3$9089$ 9     54.     ..:7,."     54."     97,3908997,3908997,3$9089$97,3$9089$97,3$9089$97,3$"9089$"      54.      ..:7,.97,3908997,3$9089$ 0.61
英語(論文から抽出)日本語訳スコア
size suppresses the convergence rate. サイズは収束率を抑制する。 0.71
For example, QNNN achieves 80% accuracy on the Wine dataset when batch size equals to 4 after 40 epochs, which is 10% higher than that of batch size with 8. 例えば、QNNNは、バッチサイズが40エポック後の4に等しい場合、Wineデータセット上で80%の精度を達成する。
訳抜け防止モード: 例えば、QNNNは40時間後、バッチサイズが4に等しい場合、Wineデータセット上で80%の精度を達成する。 8のバッチサイズよりも10%高い。
0.68
(a) Training process (b) Accuracy vs batch size (a)訓練過程 (b)精度対バッチサイズ 0.76
Figure 6: The relation between batch size of SGD and trainability of QNNs on Wine dataset. 図6: SGDのバッチサイズとWineデータセット上のQNNのトレーニング可能性の関係。 0.77
(a) shows the convergence of quantum models with different setting of batch size. (a)バッチサイズの設定が異なる量子モデルの収束を示す。 0.71
bs is abbreviation of batch size. bsはバッチサイズの略です。 0.68
(b) shows the the fluctuation of training accuracy with respective to batch size. (b)各バッチサイズに応じたトレーニング精度の変動を示す。 0.71
We then study how the explicit regularization technique, i.e., the weight decay, effects the trainability of QNNs. 次に, 比例正則化手法, すなわち重み劣化がQNNのトレーニング性に与える影響について検討する。 0.68
Mathematically, the weight decay stragety refers to adding a penalty term for the trainable paremters, n(cid:80)n i.e., arg minθ L(θ) = 1 i=1 (cid:96)(y(i), ˆy(i)) + λ(cid:107)θ(cid:107). 数学的には、重量減衰層 (weight decay stragety) は、訓練可能なパルミッター n(cid:80)n i, arg minθ l(θ) = 1 i=1 (cid:96)(y(i), sy(i)) + λ(cid:107)θ(cid:107) に対するペナルティ項を加えることを指す。 0.74
The effect of weight decay on the trainability of QNNs is shown in Figure 5. QNNのトレーニング性に及ぼす重量減衰の影響を図5に示す。 0.65
An immediate observation is that this strategy fails to enhance the performance of QNNN with GD optimizer. 直近の観察では、この戦略はGDオプティマイザによるQNNNの性能向上に失敗する。 0.68
With respect to SGD optimizer, the weight decay method improves the test accuracy of QNNN by 2% at the expense of slightly low convergence rate. SGDオプティマイザに関して、ウェイト崩壊法によるQNNNのテスト精度はわずかに低い収束率を犠牲にして2%向上する。 0.74
For QENN, weight decay together with SGD assists models to obtain the fastest convergence in the first 20 epochs. QENNの場合、重量はSGDと共に崩壊し、最初の20エポックで最速の収束が得られる。
訳抜け防止モード: QENNの場合、SGDアシストモデルと共に重量が減衰する 20世紀前半の 最速の収束を 得るためです
0.78
However, it fails to efficiently narrow the gap between train accuracy and test accuracy after the 40-th epoch when the phenomenon of over fitting begins to appear. しかし、オーバーフィッティング現象が出現し始めると、40世紀以降の列車の精度と試験精度のギャップを効率的に狭めることができない。 0.63
We last explore the performance of QNNs under the NISQ scenario. 最後に,NISQシナリオ下でのQNNの性能について検討する。 0.65
As depicted by the brown line in Figure 5, quantum noise leads to the degraded trainability QNNs, i.e., around 10% accuracy decline compared with noiseless settings. 図5の茶色の線が示すように、量子ノイズは劣化したトレーニング性QNN、すなわちノイズのない設定に比べて約10%の精度低下につながる。 0.75
We defer the comparison of the runtime cost of simulating QNNs and DNNs in Appendix D, which shows that QNNN under NISQ setting spends up to 126s on one iteration, while the noiseless setting and classical MLP only need 4s and 0.02s respectively. NISQ設定下のQNNNは1イテレーションで最大126秒、ノイズのない設定と古典的なMLPは4秒と0.02秒しか要しないことを示す。
訳抜け防止モード: 私たちはランタイムコストの比較を延期します。 Appendix DにおけるQNNとDNNのシミュレーション NISQ設定下のQNNNは、1回のイテレーションで最大126秒かかる。 一方、ノイズのない設定と古典的なMLPでは、それぞれ4と0.02しか必要としない。
0.66
Implications 4.1 The achieved results indicate that the widely used regularization techniques in classical deep learning plays a different role in quantum machine learning. 意味 4.1 古典的深層学習において広く用いられている正規化技術が量子機械学習において異なる役割を担っていることを示す。 0.50
Although SGD with the appropriate batch size slightly benefits the optimization of QNNs, others regularization strategies such as weight decay fail to enhance the trainability of QNNs. 適切なバッチサイズを持つSGDはQNNの最適化に少し効果があるが、ウェイト崩壊などの正規化戦略ではQNNのトレーニング性を高めることができない。 0.63
This differs QNNs with DNNs. これはDNNとQNNが異なる。 0.79
Advanced techniques are highly desired to improve the trainability of QNNs, especially addressing the barren plateaus phenomenons. 高度技術はQNNの訓練性の向上を強く望んでおり、特に不毛の高原現象に対処している。 0.61
In addition, empirical results exhibit that quantum system noise exacerbates the training difficulty of QNNs. さらに,量子システムノイズはqnnの学習難しさを悪化させることを示した。 0.68
A promising way to resolve this issue is introducing various error mitigation techniques into QNNs [64, 65, 66, 67, 68, 69]. この問題を解決するための有望な方法は、QNNに様々なエラー軽減技術を導入することである [64, 65, 66, 67, 68, 69]。 0.74
5 Discussion and conclusions In this study, we proceed systematic numerical experiments to understand the generalization ability and trainability of typical QNNs in the view of statistical learning theory. 5 考察と結論 この研究では,統計的学習理論の観点から,典型的なQNNの一般化能力と訓練性を理解するために,系統的な数値実験を進める。 0.79
The achieved results exhibited that 10 達成された結果は 10 0.85
    54.     ..:7,."     54."97,3-89089-897,3-89089-897,3-89089-897,3-89089-897,3-89089-8,9.80     ..:7,.""     54.     ..:7,."     54."97,3-89089-897,3-89089-897,3-89089-897,3-89089-897,3-89089-8,9.80     ..:7,."" 0.62
英語(論文から抽出)日本語訳スコア
current QNNs struggle a poor effective model capacity. 現在のQNNは、有効なモデル容量が不足している。 0.60
As depicted in Figure 1, this observation well explains why current QNNs can attain computational advantages on quantum synthetic data classification tasks and discrete logarithm problems, while they fail to compete with DNNs in tackling real-world learning tasks. 図1に示すように、現在のQNNが量子合成データ分類タスクや離散対数問題において計算上の優位性を得ることができた理由はよく説明されている。 0.67
Moreover, our study illustrate that the regularization techniques, which greatly contribute to the success of DNNs, have limited effects towards the trainability of QNNs. さらに,本研究では,DNNの成功に大きく貢献する正規化技術が,QNNのトレーニング性に限られた影響を及ぼすことを示す。 0.82
In addition, our study exhibits that quantum system noise suppresses the learnability of QNNs, which echoes with the theoretical study [35]. さらに,本研究では,量子システムノイズがQNNの学習可能性を抑制することを示す。 0.59
Last, to alleviate the dilemma of current QNNs, we discuss several prospective directions such as designing over-parameterized QNNs without barren plateaus and developing effective error mitigation techniques. 最後に、現在のqnnのジレンマを緩和するために、不毛高原のない過剰パラメータqnnの設計や効果的なエラー緩和手法の開発など、いくつかの今後の方向性について論じる。 0.46
Besides the contributions towards the understanding the power of QNNs, we build an open-source benchmark to fairly and comprehensively assess the learnability of various QNNs in a standard process, and consequently benefit the design of new paradigms of QNNs. QNNのパワーの理解への貢献に加えて、標準プロセスにおける様々なQNNの学習可能性を公平かつ包括的に評価するオープンソースベンチマークを構築し、その結果、QNNの新しいパラダイムの設計に寄与する。 0.77
Specifically, this benchmark provides several ready-to-use datasets, quantum and classical models as well as evaluation scripts. 具体的には、このベンチマークはいくつかの利用可能なデータセット、量子モデル、古典モデル、評価スクリプトを提供する。 0.47
Furthermore, we adopt the factory method in the software design to help users easily register their self-defined models into the whole framework. さらに,ソフトウェア設計におけるファクトリ手法を採用し,自己定義したモデルをフレームワーク全体に簡単に登録できるようにする。 0.76
More models and tasks will be supported in the future. 将来的にはより多くのモデルやタスクがサポートされる予定だ。 0.63
We believe that this benchmark will facilitate the whole quantum machine learning community. このベンチマークは、量子機械学習コミュニティ全体を促進するものだと考えています。 0.58
Note added. During the preparation of the manuscript, we notice that a very recent theoretical study [70] indicated that to deeply understand the power of QNNs, it is necessary to demonstrate whether QNNs possess the ability to achieve zero risk for a randomly-relabeled real-world classification task. 追加。 原稿作成中, ごく最近の理論的研究[70]では, QNNの力を深く理解するためには, ランダムに許容される現実世界の分類タスクにおいて, QNNがゼロリスクを達成できる能力を持っているかどうかを示す必要がある。 0.57
Their motivation highly echoes with our purpose such that statistical learning theory can be harnessed as a powerful tool to study the capability and limitations of QNNs. 彼らのモチベーションは、統計的学習理論をQNNの能力と限界を研究する強力なツールとして活用できるという我々の目的と非常によく一致する。
訳抜け防止モード: 彼らの動機は我々の目的と非常に一致する 統計的学習理論はQNNの能力と限界を研究する強力なツールとして利用できる。
0.77
In this perspective, the achieved results in this study provide a negative response to their question. この観点から,本研究で得られた結果から,質問に対する否定的な回答が得られる。 0.66
Combining the analysis in [70] and our results, a promising research direction is analyzing the non-uniform generalization bounds of QNNs to understand their power. 本研究は,[70]における解析と結果を組み合わせることで,QNNの非一様一般化境界を解析し,そのパワーを理解する。 0.79
References [1] Ian Goodfellow, Yoshua Bengio, and Aaron Courville. Ian Goodfellow, Yoshua Bengio, Aaron Courville を参照。 0.55
Deep learning. MIT press, 2016. 深層学習。 2016年、MIT出版。 0.67
[2] Mehryar Mohri, Afshin Rostamizadeh, and Ameet Talwalkar. [2] mehryar mohri, afshin rostamizadeh, ameet talwalkar。 0.58
Foundations of machine learning, 2012. 機械学習の基礎、2012年。 0.70
[3] Vladimir Vapnik. ウラジーミル・ヴァプニク(Vapnik)。 0.53
The nature of statistical learning theory. 統計的学習理論の性質。 0.74
Springer science & business media, 2013. 春の科学とビジネスメディア、2013年。 0.66
[4] Gao Huang, Zhuang Liu, Laurens Van Der Maaten, and Kilian Q Weinberger. Gao Huang氏、Zhuang Liu氏、Laurens Van Der Maaten氏、Kilian Q Weinberger氏。 0.56
Densely connected In Proceedings of the IEEE conference on computer vision and pattern コンピュータビジョンとパターンに関するIEEEカンファレンスのまとめ 0.48
convolutional networks. 畳み込みネットワーク 0.44
recognition, pages 4700–4708, 2017. 2017年4700-4708頁。 0.56
[5] Alex Krizhevsky, Ilya Sutskever, and Geoffrey E Hinton. Alex Krizhevsky氏、Ilya Sutskever氏、Geoffrey E Hinton氏。 0.64
Imagenet classification with deep convolutional 深層畳み込みによるイメージネット分類 0.77
neural networks. ニューラルネットワーク。 0.65
Advances in neural information processing systems, 25:1097–1105, 2012. ニューラル情報処理システムの進歩, 25:1097–1105, 2012 0.79
[6] Sepp Hochreiter and Jürgen Schmidhuber. 6]Sepp Hochreiter氏とJürgen Schmidhuber氏。 0.77
Long short-term memory. Neural computation, 9(8):1735– 短期記憶。 ニューラル計算, 9(8):1735- 0.66
1780, 1997. 1780, 1997. 0.85
[7] Mike Schuster and Kuldip K Paliwal. Mike Schuster氏とKuldip K Paliwal氏。 0.56
Bidirectional recurrent neural networks. 双方向リカレントニューラルネットワーク。 0.80
IEEE transactions on IEEEトランザクション 0.56
Signal Processing, 45(11):2673–2681, 1997. 信号処理 45(11):2673–2681, 1997。 0.90
[8] Behnam Neyshabur, Srinadh Bhojanapalli, David McAllester, and Nathan Srebro. 8] Behnam Neyshabur, Srinadh Bhojanapalli, David McAllester, Nathan Srebro。 0.68
Exploring generalization in deep learning. ディープラーニングにおける一般化の探求。 0.45
In Proceedings of the 31st International Conference on Neural Information Processing Systems, NIPS’17, page 5949–5958, Red Hook, NY, USA, 2017. 31st International Conference on Neural Information Processing Systems, NIPS’17, page 5949–5958, Red Hook, NY, USA, 2017 に参加して 0.86
Curran Associates Inc. Curran Associates Inc. 0.85
[9] Ruoyu Sun. Optimization for deep learning: theory and algorithms. [9]りゅうゆん。 ディープラーニングの最適化:理論とアルゴリズム。 0.70
arXiv preprint arXiv:1912.08957, arXiv preprint arXiv:1912.08957, 0.65
2019. 11 2019. 11 0.85
英語(論文から抽出)日本語訳スコア
[10] Chiyuan Zhang, Samy Bengio, Moritz Hardt, Benjamin Recht, and Oriol Vinyals. 10]Chiyuan Zhang氏、Samy Bengio氏、Moritz Hardt氏、Benjamin Recht氏、Oriol Vinyals氏。 0.75
Understanding deep learning requires rethinking generalization. ディープラーニングを理解するには、一般化を再考する必要がある。 0.32
In 5th International Conference on Learning Representations, ICLR 2017, Toulon, France, April 24-26, 2017, Conference Track Proceedings. 第5回Learning Representations, ICLR 2017, Toulon, France, April 24-26, Conference Track Proceedings
訳抜け防止モード: 第5回学習表現国際会議, ICLR 2017, Toulon 2017年4月24日~26日、フランスで開催。
0.74
OpenReview.net, 2017. 2017年、OpenReview.net。 0.65
[11] Frank Arute, Kunal Arya, Ryan Babbush, Dave Bacon, Joseph C Bardin, Rami Barends, Rupak Biswas, Sergio Boixo, Fernando GSL Brandao, David A Buell, et al Quantum supremacy using a programmable superconducting processor. 11] Frank Arute, Kunal Arya, Ryan Babbush, Dave Bacon, Joseph C Bardin, Rami Barends, Rupak Biswas, Sergio Boixo, Fernando GSL Brandao, David A Buell, et al Quantum supremacy using a programmable superconducting processor。 0.82
Nature, 574(7779):505–510, 2019. 自然誌 574(7779):505-510, 2019。 0.73
[12] John Preskill. 12] ジョン・プレスキル 0.55
Quantum computing in the nisq era and beyond. nisq時代以降の量子コンピューティング。 0.48
Quantum, 2:79, 2018. 量子、2018年2:79。 0.68
[13] Jacob Biamonte, Peter Wittek, Nicola Pancotti, Patrick Rebentrost, Nathan Wiebe, and Seth Lloyd. Jacob Biamonte氏、Peter Wittek氏、Nicola Pancotti氏、Patrick Rebentrost氏、Nathan Wiebe氏、Seth Lloyd氏。 0.71
Quantum machine learning. Nature, 549(7671):195, 2017. 量子機械学習。 549(7671):195年、2017年。 0.69
[14] Aram W Harrow and Ashley Montanaro. 14] Aram W Harrow氏とAshley Montanaro氏。 0.84
Quantum computational supremacy. Nature, 549(7671):203, 量子計算超越性。 自然549(7671):203、 0.75
2017. [15] Maria Schuld, Ilya Sinayskiy, and Francesco Petruccione. 2017. 15] マリア・シュルド、イリヤ・シナイスキー、フランチェスコ・ペトルクセネ 0.71
The quest for a quantum neural network. 量子ニューラルネットワークの探求です 0.54
Quantum Information Processing, 13(11):2567–2586, 2014. 量子情報処理, 13(11):2567–2586, 2014 0.89
[16] Kerstin Beer, Dmytro Bondarenko, Terry Farrelly, Tobias J Osborne, Robert Salzmann, Daniel Scheiermann, and Ramona Wolf. 16] Kerstin Beer, Dmytro Bondarenko, Terry Farrelly, Tobias J Osborne, Robert Salzmann, Daniel Scheiermann, Ramona Wolf。 0.76
Training deep quantum neural networks. 深層量子ニューラルネットワークのトレーニング。 0.82
Nature Communications, 11(1):1–6, 2020. ナチュラル・コミュニケーションズ, 11(1):1-6, 2020。 0.69
[17] Iris Cong, Soonwon Choi, and Mikhail D Lukin. [17]Iris Cong, Soonwon Choi, Mikhail D Lukin。 0.62
Quantum convolutional neural networks. 量子畳み込みニューラルネットワーク。 0.71
Nature Physics, 15(12):1273–1278, 2019. 自然 物理学 15(12): 1273-1278, 2019。 0.76
[18] Yuxuan Du, Min-Hsiu Hsieh, Tongliang Liu, and Dacheng Tao. 18]yuxuan du, min-hsiu hsieh, tongliang liu, dacheng tao。 0.57
A grover-search based quantum learning グラバー探索に基づく量子学習 0.78
scheme for classification. New Journal of Physics, 2021. 分類のスキーム。 The New Journal of Physics, 2021年。 0.76
[19] Edward Farhi and Hartmut Neven. エドワード・ファリー(Edward Farhi)とハートムート・ネブン(Hartmut Neven)。 0.55
Classification with quantum neural networks on near term processors. 近距離プロセッサ上での量子ニューラルネットワークによる分類 0.85
arXiv preprint arXiv:1802.06002, 2018. arXiv preprint arXiv:1802.06002, 2018 0.80
[20] Vojtěch Havlíček, Antonio D Córcoles, Kristan Temme, Aram W Harrow, Abhinav Kandala, Jerry M Chow, and Jay M Gambetta. Aram W Harrow氏、Abhinav Kandala氏、Jerry M Chow氏、Jay M Gambetta氏。
訳抜け防止モード: [20 ]ヴォイティッチ・ハヴリーチェク,アントニオ・D・コールエス,クリスタン・テムメ, Aram W Harrow, Abhinav Kandala, Jerry M Chow ジェイ・M・ガンベッタ(Jay M Gambetta)。
0.60
Supervised learning with quantum-enhanced feature spaces. 量子エンハンス特徴空間を用いた教師あり学習 0.61
Nature, 567(7747):209, 2019. 自然誌 567(7747):209, 2019。 0.80
[21] Kosuke Mitarai, Makoto Negoro, Masahiro Kitagawa, and Keisuke Fujii. [21]三田井耕介、根来誠、北川正弘、藤井啓介 0.46
Quantum circuit learning. Physical Review A, 98(3):032309, 2018. 量子回路学習。 フィジカル・レビューA, 98(3):032309, 2018。 0.73
[22] Maria Schuld and Nathan Killoran. 22] マリア・シュールドと ネイサン・キロラン 0.59
Quantum machine learning in feature hilbert spaces. 特徴ヒルベルト空間における量子機械学習。 0.76
Physical review letters, 122(4):040504, 2019. 身体 122(4):040404, 2019を参照。 0.61
[23] Takeru Kusumoto, Kosuke Mitarai, Keisuke Fujii, Masahiro Kitagawa, and Makoto Negoro. [23]草本武、三田井耕介、藤井敬助、北川正弘、根来誠 0.48
Experimental quantum kernel machine learning with nuclear spins in a solid. 固体中の核スピンを用いた実験量子カーネル機械学習 0.74
arXiv preprint arXiv:1911.12021, 2019. arXiv preprint arXiv:1911.12021, 2019 0.81
[24] He-Liang Huang, Yuxuan Du, Ming Gong, Youwei Zhao, Yulin Wu, Chaoyue Wang, Shaowei Li, Futian Liang, Jin Lin, Yu Xu, et al Experimental quantum generative adversarial networks for image generation. [24]He-Liang Huang,Yuxuan Du,Ming Gong,Youwei Zhao,Yulin Wu,Chaoyue Wang,Shaowei Li,Futian Liang,Jin Lin,Yu Xu,その他画像生成のための実験的量子生成敵ネットワーク。 0.85
arXiv preprint arXiv:2010.06201, 2020. arXiv preprint arXiv:2010.06201, 2020 0.80
[25] Manuel S Rudolph, Ntwali Toussaint Bashige, Amara Katabarwa, Sonika Johr, Borja Peropadre, and Alejandro Perdomo-Ortiz. Manuel S Rudolph, Ntwali Toussaint Bashige, Amara Katabarwa, Sonika Johr, Borja Peropadre, Alejandro Perdomo-Ortiz。
訳抜け防止モード: [25 ]Manuel S Rudolph, Ntwali Toussaint Bashige, Amara Katabarwa, Sonika Johr, Borja Peropadre, and Alejandro Perdomo - Ortiz
0.78
Generation of high resolution handwritten digits with an ion-trap quantum computer. イオントラップ量子コンピュータを用いた高分解能手書き桁の生成 0.76
arXiv preprint arXiv:2012.03924, 2020. arXiv preprint arXiv:2012.03924, 2020 0.81
[26] Daiwei Zhu, Norbert M Linke, Marcello Benedetti, Kevin A Landsman, Nhung H Nguyen, C Huerta Alderete, Alejandro Perdomo-Ortiz, Nathan Korda, A Garfoot, Charles Brecque, et al Training of quantum circuits on a hybrid quantum computer. [26]Daiwei Zhu, Norbert M Linke, Marcello Benedetti, Kevin A Landsman, Nhung H Nguyen, C Huerta Alderete, Alejandro Perdomo-Ortiz, Nathan Korda, A Garfoot, Charles Brecque, et al Training of quantum circuits on a hybrid quantum computer。 0.86
Science advances, 5(10):eaaw9918, 2019. 科学の進歩 5(10):eaaw9918, 2019。 0.84
12 12 0.85
英語(論文から抽出)日本語訳スコア
[27] Cornelius Hempel, Christine Maier, Jonathan Romero, Jarrod McClean, Thomas Monz, Heng Shen, Petar Jurcevic, Ben P Lanyon, Peter Love, Ryan Babbush, et al Quantum chemistry calculations on a trapped-ion quantum simulator. [27] Cornelius Hempel, Christine Maier, Jonathan Romero, Jarrod McClean, Thomas Monz, Heng Shen, Petar Jurcevic, Ben P Lanyon, Peter Love, Ryan Babbush, et al Quantum Chemistry calculations on a trap-ion quantum simulator。 0.87
Physical Review X, 8(3):031022, 2018. フィジカル・レビューX, 8(3):031022, 2018。 0.76
[28] Abhinav Kandala, Antonio Mezzacapo, Kristan Temme, Maika Takita, Markus Brink, Jerry M Chow, and Jay M Gambetta. [28]Abhinav Kandala、Antonio Mezzacapo、Kristan Temme、Maika Takita、Markus Brink、Jerry M Chow、Jay M Gambetta。 0.60
Hardware-efficient variational quantum eigensolver for small molecules and quantum magnets. 小型分子と量子磁石のハードウェア効率可変量子固有解法 0.82
Nature, 549(7671):242–246, 2017. 549(7671):242-246、2017年。 0.61
[29] Google AI Quantum et al Hartree-fock on a superconducting qubit quantum computer. Google AI Quantum et al Hartree-fock on a superconducting qubit quantum computer。 0.72
Science, 369(6507):1084–1089, 2020. 科学 369(6507):1084–1089, 2020. 0.66
[30] Alberto Peruzzo, Jarrod McClean, Peter Shadbolt, Man-Hong Yung, Xiao-Qi Zhou, Peter J Love, Alán Aspuru-Guzik, and Jeremy L O’brien. Alberto Peruzzo, Jarrod McClean, Peter Shadbolt, Man-Hong Yung, Xiao-Qi Zhou, Peter J Love, Alán Aspuru-Guzik, Jeremy L O’brien。 0.80
A variational eigenvalue solver on a photonic quantum processor. フォトニック量子プロセッサにおける変動固有値解法 0.64
Nature communications, 5:4213, 2014. 自然通信、2014年5月4213日。 0.54
[31] Amira Abbas, David Sutter, Christa Zoufal, Aurélien Lucchi, Alessio Figalli, and Stefan Woerner. Amira Abbas, David Sutter, Christa Zoufal, Aurélien Lucchi, Alessio Figalli, Stefan Woerner. 0.66
The power of quantum neural networks. 量子ニューラルネットワークのパワーです 0.51
arXiv preprint arXiv:2011.00027, 2020. arXiv preprint arXiv:2011.00027, 2020 0.81
[32] Leonardo Banchi, Jason Pereira, and Stefano Pirandola. 32] レオナルド・バンチ、ジェイソン・ペレイラ、ステファノ・ピランドラ 0.54
Generalization in quantum machine learning: a 量子機械学習における一般化 0.82
quantum information perspective. arXiv preprint arXiv:2102.08991, 2021. 量子情報の観点から arXiv preprint arXiv:2102.08991, 2021 0.83
[33] Kaifeng Bu, Dax Enshan Koh, Lu Li, Qingxian Luo, and Yaobo Zhang. [33]開封部、ダックス・エンシャン・コー、ル・リー、清亜ルオ、ヤオボ・チャン 0.40
On the statistical complexity of quantum circuits. 統計複雑性について 量子回路 0.66
arXiv preprint arXiv:2101.06154, 2021. arXiv preprint arXiv:2101.06154, 2021 0.80
[34] Yuxuan Du, Min-Hsiu Hsieh, Tongliang Liu, Shan You, and Dacheng Tao. [34]Yuxuan Du、Min-Hsiu Hsieh、Tongliang Liu、Shan You、Dacheng Tao。 0.71
On the learnability of quantum neural networks. 学習能力について 量子ニューラルネットワーク。 0.69
arXiv preprint arXiv:2007.12369, 2020. arXiv preprint arXiv:2007.12369, 2020 0.81
[35] Yuxuan Du, Zhuozhuo Tu, Xiao Yuan, and Dacheng Tao. 35]yuxuan du, zhuozhuo tu, xiao yuan, dacheng tao。 0.55
An efficient measure for the expressivity of 表現力の効率的な測定方法 0.77
variational quantum algorithms. 変分量子アルゴリズム。 0.71
arXiv preprint arXiv:2104.09961, 2021. arXiv preprint arXiv:2104.09961, 2021 0.81
[36] Hsin-Yuan Huang, Michael Broughton, Masoud Mohseni, Ryan Babbush, Sergio Boixo, Hartmut Neven, and Jarrod R McClean. Hsin-Yuan Huang氏、Michael Broughton氏、Masoud Mohseni氏、Ryan Babbush氏、Sergio Boixo氏、Hartmut Neven氏、Jarrod R McClean氏。 0.73
Power of data in quantum machine learning. 量子機械学習におけるデータのパワー。 0.87
arXiv preprint arXiv:2011.01938, 2020. arXiv preprint arXiv:2011.0 1938, 2020 0.72
[37] Hsin-Yuan Huang, Richard Kueng, and John Preskill. [37]Hsin-Yuan Huang、Richard Kueng、John Preskill。 0.81
Information-theoreti c bounds on quantum 量子上の情報理論境界 0.69
advantage in machine learning. arXiv preprint arXiv:2101.02464, 2021. 機械学習の利点です arXiv preprint arXiv:2101.02464, 2021 0.75
[38] Vladimir Vapnik. ウラジーミル・ヴァプニク[38]。 0.58
Principles of risk minimization for learning theory. 学習理論におけるリスク最小化の原則。 0.81
In Advances in neural information processing systems, pages 831–838, 1992. 神経情報の分野では 処理システム、861-838頁、1992年。 0.72
[39] Stephen Boyd and Lieven Vandenberghe. 39]Stephen BoydとLieven Vandenberghe。 0.70
Convex optimization. Cambridge university press, 2004. 凸最適化。 ケンブリッジ大学出版局、2004年。 0.64
[40] Jarrod R McClean, Sergio Boixo, Vadim N Smelyanskiy, Ryan Babbush, and Hartmut Neven. Jarrod R McClean氏、Sergio Boixo氏、Vadim N Smelyanskiy氏、Ryan Babbush氏、Hartmut Neven氏。 0.68
Barren plateaus in quantum neural network training landscapes. Barren 量子ニューラルネットワークのトレーニングランドスケープにおける高原。 0.78
Nature communications, 9(1):1–6, 2018. ナチュラル・コミュニケーションズ、2018年1月9日:1-6日。 0.48
[41] Zeyuan Allen-Zhu, Yuanzhi Li, and Yingyu Liang. [41]Zeyuan Allen-Zhu、Yuanzhi Li、Yingyu Liang。 0.76
Learning and generalization in overparameterized neural networks, going beyond two layers. 過パラメータ化されたニューラルネットワークの学習と一般化。 0.60
In Advances in neural information processing systems, pages 6158–6169, 2019. 神経情報処理システムの進歩』 6158-6169, 2019。 0.65
[42] Kenji Kawaguchi, Leslie Pack Kaelbling, and Yoshua Bengio. [42]川口健二、レスリー・パック・ケイルリング、ヨシュア・ベンジオ 0.57
Generalization in deep learning. ディープラーニングの一般化。 0.56
arXiv preprint arXiv:1710.05468, 2017. arXiv arXiv:1710.05468, 2017 0.79
[43] Marcello Benedetti, Erika Lloyd, Stefan Sack, and Mattia Fiorentini. 43] Marcello Benedetti, Erika Lloyd, Stefan Sack, Mattia Fiorentini。 0.70
Parameterized quantum circuits as 量子回路のパラメータ化 0.88
machine learning models. Quantum Science and Technology, 4(4):043001, 2019. 機械学習モデル。 量子科学と技術, 4(4):043001, 2019。 0.78
13 13 0.85
英語(論文から抽出)日本語訳スコア
[44] M Cerezo, Andrew Arrasmith, Ryan Babbush, Simon C Benjamin, Suguru Endo, Keisuke Fujii, Jarrod R McClean, Kosuke Mitarai, Xiao Yuan, Lukasz Cincio, et al Variational quantum algorithms. [44]m cerezo、andrew arrasmith、ryan babbush、simon c benjamin、suguru endo、keisuke fujii、jarrod r mcclean、kosuke mitarai、xiao yuan、lukasz cincio、al variational quantum algorithms。
訳抜け防止モード: 44 ]M Cerezo, Andrew Arrasmith, Ryan Babbush, Simon C Benjamin, Endo Suguru, Fujii Keisuke, Jarrod R McClean Mitarai Kosuke, Xiao Yuan, Lukasz Cincio, et al variational quantum algorithm。
0.78
arXiv preprint arXiv:2012.09265, 2020. arXiv preprint arXiv:2012.09265, 2020 0.81
[45] Michael A Nielsen and Isaac L Chuang. 45]マイケル・ア・ニールセンと アイザック・l・チュアン 0.57
Quantum computation and quantum information. 量子計算と量子情報。 0.74
Cambridge University Press, 2010. ケンブリッジ 2010年、大学出版。 0.68
[46] Peter Wittek. ピーター・ウィテック(Peter Wittek)。 0.59
Quantum machine learning: what quantum computing means to data mining. 量子機械学習: 量子コンピューティングがデータマイニングに何を意味するか。 0.78
Academic Press, 2014. 学術 2014年出版。 0.63
[47] Yuxuan Du, Min-Hsiu Hsieh, Tongliang Liu, and Dacheng Tao. [47]Yuxuan Du、Min-Hsiu Hsieh、Tongliang Liu、Dacheng Tao。 0.71
Expressive power of parametrized パラメタライズドの表現力 0.68
quantum circuits. Phys. Rev. 量子回路 Phys Rev 0.53
Research, 2:033125, Jul 2020. 研究報告 2:033125, Jul 2020。 0.87
[48] Ryan LaRose and Brian Coyle. ライアン・ラローズとブライアン・コイルです 0.45
Robust data encodings for quantum classifiers. 量子分類器のロバストデータ符号化 0.74
Physical Review A, 102(3):032420, 2020. 物理レビューa, 102(3):032420, 2020. 0.81
[49] Seth Lloyd, Maria Schuld, Aroosa Ijaz, Josh Izaac, and Nathan Killoran. [49]Seth Lloyd, Maria Schuld, Aroosa Ijaz, Josh Izaac, Nathan Killoran。 0.74
Quantum embeddings for machine learning. 量子埋め込み 機械学習。 0.62
arXiv preprint arXiv:2001.03622, 2020. arXiv preprint arXiv:2001.03622, 2020 0.81
[50] Maxwell Henderson, Samriddhi Shakya, Shashindra Pradhan, and Tristan Cook. Maxwell Henderson氏、Samriddhi Shakya氏、Shashindra Pradhan氏、Tristan Cook氏。 0.69
Quanvolutional neural networks: powering image recognition with quantum circuits. 準進化型ニューラルネットワーク: 画像認識を量子回路で駆動する。 0.73
Quantum Machine Intelligence, 2(1):1–9, 2020. Quantum Machine Intelligence, 2(1):1-9, 2020。 0.90
[51] Zoë Holmes, Kunal Sharma, M Cerezo, and Patrick J Coles. 51]Zoë Holmes、Kunal Sharma、M Cerezo、Patrick J Coles。 0.60
Connecting ansatz expressibility to gradient ansatz表現性と勾配の接続 0.66
magnitudes and barren plateaus. マグニチュードと不毛高原。 0.44
arXiv preprint arXiv:2101.02138, 2021. arXiv preprint arXiv:2101.02138, 2021 0.80
[52] Diederik P Kingma and Jimmy Ba. 52]Diederik P KingmaとJimmy Ba。 0.70
Adam: A method for stochastic optimization. Adam: 確率最適化の方法です。 0.69
arXiv preprint arXiv プレプリント 0.83
arXiv:1412.6980, 2014. arxiv:1412.6980, 2014年。 0.38
[53] James Stokes, Josh Izaac, Nathan Killoran, and Giuseppe Carleo. James Stokes, Josh Izaac, Nathan Killoran, Giuseppe Carleo。 0.58
Quantum natural gradient. Quantum, 量子自然勾配。 量子。 0.66
4:269, 2020. 4:269, 2020. 0.84
[54] Seth Lloyd. セト・ロイド(Seth Lloyd)。 0.53
Quantum approximate optimization is computationally universal. 量子近似最適化は計算的に普遍的である。 0.55
arXiv preprint arXiv プレプリント 0.83
arXiv:1812.11075, 2018. arXiv:1812.11075, 2018。 0.61
[55] Maria Schuld, Ryan Sweke, and Johannes Jakob Meyer. Maria Schuld氏、Ryan Sweke氏、Johannes Jakob Meyer氏。 0.59
Effect of data encoding on the expressive power 表現力に及ぼすデータ符号化の影響 0.85
of variational quantum-machine-lear ning models. 変分量子機械学習モデルの例です 0.62
Physical Review A, 103(3):032430, 2021. 物理書評 A, 103(3):032430, 2021 0.71
[56] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. [56]開明、Xiangyu Zhang、Shaoqing Ren、Jian Sun。 0.54
Deep residual learning for image recognition. 画像認識のための深い残差学習 0.81
In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 770–778, 2016. Proceedings of the IEEE conference on computer vision and pattern recognition, page 770–778, 2016 0.80
[57] Dheeru Dua and Casey Graff. 57]Dheeru DuaとCasey Graff。 0.65
UCI machine learning repository, 2017. UCI機械学習レポジトリ、2017年。 0.79
[58] Yann LeCun. 58]Yann LeCun。 0.56
The mnist database of handwritten digits. 手書きの数字のmnistデータベース。 0.63
http://yann. http://yann.com。 0.51
lecun. com/exdb/mnist/, 1998. ルクーン com/exdb/mnist/, 1998。 0.51
[59] Maria Schuld. マリア・シュルド(Maria Schuld)。 0.61
Quantum machine learning models are kernel methods. 量子機械学習モデルはカーネルメソッドである。 0.81
arXiv preprint arXiv:2101.11020, arXiv preprint arXiv:2101.11020, 0.65
2021. [60] Xinbiao Wang, Yuxuan Du, Yong Luo, and Dacheng Tao. 2021. [60]シンビアオ・ワン、Yuxuan Du、Yong Luo、Dacheng Tao。 0.74
Towards understanding the power of quantum 量子の力を理解するために 0.81
kernels in the nisq era. nisq時代のカーネル。 0.43
arXiv preprint arXiv:2103.16774, 2021. arXiv preprint arXiv:2103.16774, 2021 0.81
[61] IBM Quantum. [61] IBM Quantum。 0.78
https://quantum-comp uting.ibm.com/, 2021. https://quantum-comp uting.ibm.com/, 2021。 0.54
[62] Léon Bottou, Frank E Curtis, and Jorge Nocedal. Léon Bottou氏、Frank E Curtis氏、Jorge Nocedal氏。 0.60
Optimization methods for large-scale machine learning. 大規模機械学習のための最適化手法 0.75
Siam Review, 60(2):223–311, 2018. Siam Review, 60(2):223–311, 2018。 0.89
14 14 0.85
英語(論文から抽出)日本語訳スコア
[63] Rong Ge, Furong Huang, Chi Jin, and Yang Yuan. [63]ロンゲ、フルン・フアン、チジン、ヤン・ユアン。 0.51
Escaping from saddle points—online stochastic サドルポイントから逃れる―オンライン確率 0.50
gradient for tensor decomposition. テンソル分解の勾配。 0.55
In Conference on learning theory, pages 797–842. 学習理論に関する会議では、797-842頁。 0.72
PMLR, 2015. 2015年、PMLR。 0.70
[64] Yuxuan Du, Tao Huang, Shan You, Min-Hsiu Hsieh, and Dacheng Tao. [64]Yuxuan Du、Tao Huang、Shan You、Min-Hsiu Hsieh、Dacheng Tao。 0.72
Quantum circuit architecture search: error mitigation and trainability enhancement for variational quantum solvers. 量子回路アーキテクチャ探索: 変分量子解法における誤差緩和とトレーニング可能性向上 0.85
arXiv preprint arXiv:2010.10217, 2020. arXiv preprint arXiv:2010.10217, 2020 0.80
[65] Suguru Endo, Simon C Benjamin, and Ying Li. [65]遠藤スーグル、シモン・c・ベンジャミン、李陽。 0.65
Practical quantum error mitigation for near-future 近未来の量子エラー対策 0.68
applications. Physical Review X, 8(3):031027, 2018. アプリケーション。 フィジカル・レビューX, 8(3):031027, 2018。 0.74
[66] Suguru Endo, Zhenyu Cai, Simon C Benjamin, and Xiao Yuan. [66]遠藤スグル、周融、シモン・C・ベンジャミン、Xiao Yuan。 0.61
Hybrid quantum-classical algorithms ハイブリッド量子古典アルゴリズム 0.83
and quantum error mitigation. 量子エラーの軽減です 0.59
Journal of the Physical Society of Japan, 90(3):032001, 2021. 日本物理学会誌、90(3):032001、2021年。 0.54
[67] Abhinav Kandala, Kristan Temme, Antonio D Córcoles, Antonio Mezzacapo, Jerry M Chow, and Jay M Gambetta. 67] Abhinav Kandala、Kristan Temme、Antonio D Córcoles、Antonio Mezzacapo、Jerry M Chow、Jay M Gambetta。
訳抜け防止モード: [67 ]Abhinav Kandala, Kristan Temme, Antonio D Córcoles, アントニオ・メザカポ、ジェリー・M・ショー、ジェイ・M・ガンベッタ。
0.72
Error mitigation extends the computational reach of a noisy quantum processor. 誤差緩和は、ノイズの多い量子プロセッサの計算範囲を広げる。 0.72
Nature, 567(7749):491–495, 2019. 自然誌 567(7749):491-495, 2019。 0.69
[68] Armands Strikis, Dayue Qin, Yanzhu Chen, Simon C Benjamin, and Ying Li. 68]Armands Strikis、Dayue Qin、Yanzhu Chen、Simon C Benjamin、Ying Li。 0.60
Learning-based quantum error mitigation. 学習に基づく量子 エラーの軽減。 0.63
arXiv preprint arXiv:2005.07601, 2020. arXiv preprint arXiv:2005.07601, 2020 0.81
[69] Kristan Temme, Sergey Bravyi, and Jay M Gambetta. 69]Kristan Temme、Sergey Bravyi、Jay M Gambetta。 0.48
Error mitigation for short-depth quantum circuits. 短距離量子回路における誤差緩和 0.74
Physical review letters, 119(18):180509, 2017. 119(18):180509、2017年。 0.52
[70] Matthias C. Caro, Elies Gil-Fuster, Johannes Jakob Meyer, Jens Eisert, and Ryan Sweke. Matthias C. Caro氏、Elies Gil-Fuster氏、Johannes Jakob Meyer氏、Jens Eisert氏、Ryan Sweke氏。 0.79
Encoding- dependent generalization bounds for parametrized quantum circuits, 2021. エンコーディング パラメトリズド量子回路の依存一般化境界、2021年。 0.75
[71] Aram W Harrow and John C Napp. 71] aram w harrow と john c napp です。 0.66
Low-depth gradient measurements can improve convergence in 低深さ勾配測定は収束を改善できる 0.75
variational hybrid quantum-classical algorithms. 変分ハイブリッド量子古典アルゴリズム。 0.79
Physical Review Letters, 126(14):140502, 2021. フィジカル・レビュー・レター 126(14):140502, 2021。 0.78
[72] Ville Bergholm, Josh Izaac, Maria Schuld, Christian Gogolin, M Sohaib Alam, Shahnawaz Ahmed, Juan Miguel Arrazola, Carsten Blank, Alain Delgado, Soran Jahangiri, et al Pennylane: Automatic differentiation of hybrid quantum-classical computations. Ville Bergholm, Josh Izaac, Maria Schuld, Christian Gogolin, M Sohaib Alam, Shahnawaz Ahmed, Juan Miguel Arrazola, Carsten Blank, Alain Delgado, Soran Jahangiri, et al Pennylane: ハイブリッド量子古典計算の自動微分。 0.72
arXiv preprint arXiv:1811.04968, 2018. arXiv preprint arXiv:1811.04968, 2018 0.78
[73] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, Alban Desmaison, Andreas Kopf, Edward Yang, Zachary DeVito, Martin Raison, Alykhan Tejani, Sasank Chilamkurthy, Benoit Steiner, Lu Fang, Junjie Bai, and Soumith Chintala. [73]Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, Alban Desmaison, Andreas Kopf, Edward Yang, Zachary DeVito, Martin Raison, Alykhan Tejani, Sasank Chilamkurthy, Benoit Steiner, Lu Fang, Junjie Bai, Soumith Chintala。 0.82
Pytorch: An imperative style, high-performance deep learning library. Pytorch: 命令型で高性能なディープラーニングライブラリです。 0.77
In Advances in Neural Information Processing Systems 32, pages 8024–8035. 神経情報処理システム32の進歩は8024-8035ページである。 0.73
Curran Associates, Inc., 2019. Curran Associates, Inc., 2019 0.71
15 15 0.85
英語(論文から抽出)日本語訳スコア
A Quantum computing Analogous to the fundamental role of bit in classical computing, the fundamental unit in quantum computation is quantum bit (qubit), which refers to a two-dimensional vector. 古典的計算におけるビットの基本的な役割に類似した量子計算では、量子計算の基本単位は2次元ベクトルを意味する量子ビット(qubit)である。 0.86
Under Dirac notation, a qubit state is defined as |α(cid:105) = a0 |0(cid:105) + a1 |1(cid:105) ∈ C2, where |0(cid:105) = [1, 0](cid:62) and |1(cid:105) = [0, 1](cid:62) specify two unit bases, and the coefficients a0, a1 ∈ C satisfy |a0|2 + |a1|2 = 1. ディラック記法では、キュービット状態は |α(cid:105) = a0 |0(cid:105) + a1 |1(cid:105) ∈ C2, where |0(cid:105) = [1, 0](cid:62) and |1(cid:105) = [0, 1](cid:62) と定義され、係数 a0, a1 ∈ C は |a0|2 + |a1|2 = 1 を満たす。 0.78
Similarly, an N-qubit state is denoted by |Ψ(cid:105) =(cid:80)2N i=1 ai |ei(cid:105) ∈ C2N , where |ei(cid:105) ∈ R2N is the unit vector whose i-th entry being 1 and other entries are 0, and(cid:80)2N−1 |ai|2 = 1 with ai ∈ C. Apart from Dirac notation, the density matrix can be used to describe more general qubit states. 同様に、N-立方体状態は、 (cid:105) = (cid:80)2N i=1 ai |ei(cid:105) ∈ C2N, where |ei(cid:105) ∈ R2N is the unit vector that i-th entry is 1 and other entry is 0, and (cid:80)2N−1 |ai|2 = 1 with ai ∈ C と表記される。 0.87
For example, the density matrix corresponding to the state |Ψ(cid:105) is ρ = |Ψ(cid:105)(cid:104)Ψ| ∈ C2N×2N . 例えば、状態 |(cid:105) に対応する密度行列はρ = |(cid:105)(cid:104) | ∈ C2N×2N である。 0.68
For a set i=1 pi = 1, and |Ψi(cid:105) ∈ C2N for ∀i ∈ m, its density matrix is of qubit states {pi,|Ψi(cid:105)}m ρ =(cid:80)m 集合 i=1 pi = 1 と |\i(cid:105) ∈ C2N に対して、その密度行列は qubit 状態 {pi,|\i(cid:105)}m ρ =(cid:80)m である。 0.86
i=1 with pi > 0,(cid:80)m i=1 piρi with ρi = |ψi(cid:105)(cid:104)ψi| and Tr(ρ) = 1. i=1 with pi > 0,(cid:80)m i=1 piρi with ρi = |\i(cid:105)(cid:104) \i| and Tr(ρ) = 1。 0.81
i=0 Figure 7: The quantum logic gates. i=0 図7: 量子論理ゲート。 0.63
The table contains the abbreviation, the mathematical form, and the graph representation of a set of universal quantum gates explored in this study. この表は、この研究で探索された普遍量子ゲートの集合の略語、数学的形式、およびグラフ表現を含む。 0.78
There are three types of quantum operations using to manipulate qubit states, which are quantum (logic) gates, quantum channels, and quantum measurements. 量子ビット状態を操作するために使われる量子演算には、量子(論理)ゲート、量子チャネル、量子測定の3種類がある。 0.79
Specifically, quantum gates, as unitary transformations, can be treated as the computational toolkit for quantum circuit models, i.e., an N-qubit gate U ∈ U(2N ) obeys U U† = I 2N , where U(·) stands for the unitary group. 具体的には、量子ゲートをユニタリ変換として扱うことは、量子回路モデルの計算ツールキットとして扱うことができ、すなわち、N-量子ビットゲート U ∈ U(2N ) は U 2N に従い、U(·) はユニタリ群を表す。 0.83
Throughout the whole study, we focus on the single-qubit and two-qubit quantum gate set {H, X, Y, Z, RX, RY, RZ, CNOT, CZ}, as summarized in Figure 7. 本研究全体を通して、図7に示すように、単一量子ビットおよび2量子ビットの量子ゲート集合 {H, X, Y, Z, RX, RY, RZ, CNOT, CZ} に焦点を当てる。 0.82
Note that the investigated set is universal such that such that these quantum gates can be used to reproduce the functions of all the other quantum gates [45]. 量子ゲートが他の全ての量子ゲート [45] の関数を再現するために使用できるように、研究された集合は普遍的であることに注意されたい。 0.77
Different from quantum gates that evolve qubit states in the closed system, quantum channels are applied to formalize the evolving of qubits states in the open system. 閉系において量子ビット状態が進化する量子ゲートとは異なり、量子チャネルは開系における量子ビット状態の進化を形式化する。 0.78
Mathematically, every quantum channel E(·) is a linear, completely positive, and trace-preserving map [45]. 数学的には、すべての量子チャネル e(·) は線型、完全正、トレース保存写像 [45] である。 0.69
A special quantum channel is called depolarization channel, which is defined as 特別な量子チャネルは分極チャネルと呼ばれ、定義されている。 0.75
Ep(ρ) = (1 − p)ρ + p Ep(ρ) = (1 − p)ρ + p 0.85
I 2N 2N . (4) I 2N 2N。 (4) 0.81
Intuitively, the depolarizing channel considers the worst-case scenario such that the information of the input state can be entirely lost with some probability. 直観的には、デポーラライズチャネルは、入力状態の情報がある程度の確率で完全に失われるような最悪のシナリオを考える。 0.65
The aim of quantum measurements is extracting quantum information of the evolved state, which contains the computation result, into the classical form. 量子測定の目的は、計算結果を含む進化した状態の量子情報を古典形式に抽出することである。 0.77
In this study, we concentrate on the positive operator-valued measures (POVM), which is described by a collection of 本研究では,正の演算子評価尺度(POVM)に焦点をあてる。
訳抜け防止モード: 本研究では,正の演算子-値測度(POVM)に集中する。 これは一つのコレクションによって説明されます
0.66
positive operators 0 (cid:22) Πi satisfying(cid:80)i Πi = I. Specifically, applying the measurement {Πi} to the state ρ, 正作用素 0 (cid:22) πi は(cid:80)i πi = i を満たす。
訳抜け防止モード: 正作用素 0 ( cid:22 ) .i は (cid:80)i .i = I を満たす。 状態 ρ に測定値 si } を適用する
0.76
the probability of outcome i is given by 私が与えた結果の確率は 0.63
Pr(i) = Tr(ρΠi). Pr(i) = Tr(ρ)。 0.73
16 (5) QuantumgatePauli-X(X )Pauli-Y(Y)Pauli-Z(Z )Hadamard(H)Controll ed-Z(CZ)Mathematical formX=(cid:20)0110(cid:21) Y=(cid:20)0−ιι0(cid:21)Z=(cid:20)100−1(cid:21)H=1√2(cid:20)111−1(cid:21)CZ=100001000010000−1GraphrepresentationX orYZHZorQuantumgateR otationalsingle-qubi tgatealongX-axis(RX( θ))Rotationalsingle-q ubitgatealongY-axis( RY(θ))Rotationalsingle-q ubitgatealongZ-axis( RZ(θ))SWAPControlled-NOT (CNOT,CX)Mathematica lformRX(θ)=(cid:20)cos(θ2)−ιsin(θ2)−ιsin(θ2)cos(θ2)(cid:21)RY(θ)=(cid:20)cos(θ2)−sin(θ2)sin(θ2)cos(θ2)(cid:21)RZ="e−ιθ200eιθ2#SWAP=1000001001000001CNOT=1000010000010010GraphrepresentationR X(θ)RY(θ)RZ(θ)orXor1 16 (5) QuantumgatePauli-X(X )Pauli-Y(Y)Pauli-Z(Z )Hadamard(H)Controll ed-Z(CZ)Mathematical formX=(cid:20)0110(cid:21) Y=(cid:20)0−ιι0(cid:21)Z=(cid:20)100−1(cid:21)H=1√2(cid:20)111−1(cid:21)CZ=100001000010000−1GraphrepresentationX orYZHZorQuantumgateR otationalsingle-qubi tgatealongX-axis(RX( θ))Rotationalsingle-q ubitgatealongY-axis( RY(θ))Rotationalsingle-q ubitgatealongZ-axis( RZ(θ))SWAPControlled-NOT (CNOT,CX)Mathematica lformRX(θ)=(cid:20)cos(θ2)−ιsin(θ2)−ιsin(θ2)cos(θ2)(cid:21)RY(θ)=(cid:20)cos(θ2)−sin(θ2)sin(θ2)cos(θ2)(cid:21)RZ="e−ιθ200eιθ2#SWAP=1000001001000001CNOT=1000010000010010GraphrepresentationR X(θ)RY(θ)RZ(θ)orXor1 0.78
英語(論文から抽出)日本語訳スコア
B Optimization of QNNs There are many methods to optimize Eqn. B QNNの最適化 Eqnを最適化する多くの方法があります。 0.67
(1) when the hypothesis is represented by Eqn. 1)仮説がeqnで表される場合。 0.57
(3), which include the zero-order, the first-order, and the second-order optimizers [43]. (3) は 0 階, 1 階, 2 階オプティマイザ [43] を含む。 0.46
For clearness, here we concentrate はっきりするために 集中して 0.56
on the first-order optimizer, where the gradients ∂C(cid:0)h(θ, x(i)), y(i)(cid:1) /∂θ are obtained by the parameter shift rule [21], which can be effectively realized on NISQ devices. 1次オプティマイザでは、パラメータシフト規則[21]により勾配 ∂C(cid:0)h(θ, x(i)), y(i)(cid:1) /∂θ が得られる。
訳抜け防止モード: 最初の-順序オプティマイザでは、勾配は ∂C(cid:0)h(θ) となる。 x(i ) , y(i)(cid:1 ) /∂θ はパラメータシフト規則[21 ]により得られる。 NISQデバイス上で効果的に実現できる。
0.69
Specifically, we denote the parameter as L )T with θl = (θl1,··· , θl,kl)T , where the subscript lk refers to the number of parameters or θ = (θT gates of the l-th learnable circuit layer. 具体的には、パラメータを θl = (θl1,·· , θl,kl)T で表す。
訳抜け防止モード: 具体的には、パラメータを θl = ( θl1) で L ) T と表す。 · · ·, θl, kl)T では、サブスクリプト lk はパラメータの数を表す。 θ = (l - th の θT ゲート) は学習可能な回路層である。
0.69
Then the derivative of the hypothesis h(θ, x(i)) with respect to θl,kl can be evaluated by running twice the same quantum circuit which differs only in a shift of this parameter. すると、θl,kl に関する仮説 h(θ, x(i)) の微分は、このパラメータのシフトだけが異なる同じ量子回路を2回実行することによって評価することができる。 0.81
Mathematically, as each parameter gate we use in the designed circuit is generated by a Pauli operator Pl,kl, i.e., Ul,kl(θl,kl) = exp(−iθl,klPl,kl/2), the parameter shift rule yields the equality 数学的には、設計回路で使用する各パラメータゲートは、パウリ作用素 Pl,kl, すなわち、Ul,kl(θl,kl) = exp(−iθl,klPl,kl/2) によって生成されるので、パラメータシフト規則は等式を生成する。 0.78
1 ,··· , θT 1 ,··· , θT 0.85
∂h(θ, x(i)) ∂h(θ, x(i)) 0.94
∂θl,kl = 1 ∂θl,kl = 1 0.83
2 sin α(cid:104)h(θ + αel,kl, x(i)) − h(θ − αel,kl, x(i))(cid:105) , 2 sin α(cid:104)h(θ + αel,kl,x(i)) − h(θ − αel,kl,x(i))(cid:105) , 0.98
(6) rule. where el,kl is the unit vector along the θl,kl axis and α can be any real number but the multiple of π because (6) ルールだ ここで el,kl は θl,kl 軸に沿った単位ベクトルであり、α は任意の実数であるが π の倍数である。 0.78
of the diverging denominator. 多様化する分母のことです 0.36
The gradient of C(cid:0)h(θ, x(i)), y(i)(cid:1) can be computed by using the chain With the gradient ∂C(cid:0)h(θ, x(i)), y(i)(cid:1) /∂θ at hand, many gradient descent algorithms can be employed c(cid:0)h(θ, x(i)), y(i)(cid:1) の勾配は、勾配 ∂c(cid:0)h(θ, x(i)), y(i)(cid:1) /∂θθ を用いて計算できる。
訳抜け防止モード: c(cid:0)h(θ, x(i ) ), y(i)(cid:1 ) の勾配は、勾配 ∂c(cid:0)h(θ,) の鎖を用いて計算できる。 x(i ) ), y(i)(cid:1 ) /∂θ が手元にある。 多くの勾配降下アルゴリズムが
0.78
to find the optimal parameter point. 最適なパラメータポイントを見つけるためです 0.79
In this paper, we mainly consider stochastic gradient descent (SGD) algorithm and stochastic quantum natural gradient descent (SQNGD) algorithm, which both effectively deal with the randomness of gradient induced by finite measurement and hardware noise. 本稿では, 主に確率的勾配勾配(SGD)アルゴリズムと確率的量子自然勾配(SQNGD)アルゴリズムについて考察する。
訳抜け防止モード: 本稿では,主に確率勾配勾配(SGD)アルゴリズムについて考察する。 確率量子自然勾配降下法(SQNGD)は どちらも、有限の測定とハードウェアノイズによって誘導される勾配のランダム性に効果的に対処します。
0.71
SGD is widely used in deep learning, whose optimization strategy is to update the trainable parameters in the steepest direction indicated by the gradient. SGDはディープラーニングにおいて広く使われており、その最適化戦略は勾配によって示される最も急な方向にトレーニング可能なパラメータを更新することである。
訳抜け防止モード: ディープラーニングにおけるSGDの最適化戦略 勾配で示される最も急な方向にトレーニング可能なパラメータを更新することです。
0.71
Formally, each optimization step is given by 形式的には 各最適化ステップは 0.77
θt+1 = θt − η∇C (θ) θt+1 = θt − η\C (θ) 0.70
(7) where η is the learning rate and C(θ) is short for the loss function regarding the parameter θ. (7) η は学習率であり、C(θ) はパラメータ θ に関する損失関数に対して短い。 0.83
Unlike SGD which chooses vanilla gradient as its optimization guidance, SQNGD employs the quantum natural gradient, a quantum analogy of natural gradient, to perform the parameter updating. 最適化ガイダンスとしてバニラ勾配を選択するSGDとは異なり、SQNGDは自然勾配の量子アナログである量子自然勾配を用いてパラメータ更新を行う。 0.80
While vanilla gradient descent chooses the steepest descent direction in the l2 geometry of parameter space, which has been shown to be sub-optimal for the optimization of quantum variational algorithms [71], quantum natural gradient descent works on the space of quantum states equipped with a Riemannian metric tensor (called Fubini-Study metric tensor) that measures the sensitivity of the quantum state to variations in the parameters. バニラ勾配降下は、パラメータ空間の l2 幾何における最も急降下方向を選択するが、量子変分アルゴリズム [71] の最適化に最適であることが示されているため、量子自然勾配降下は、パラメータの変動に対する量子状態の感度を測定するリーマン計量テンソル(英語版)(Fubini-Study metric tensor)と呼ばれる)を備えた量子状態の空間に作用する。 0.83
This method always updates each parameter with optimal step-size independent of the parameterization, achieving a faster convergence than SGD. この手法は常にパラメータ化とは独立して最適なステップサイズで各パラメータを更新し、SGDよりも高速な収束を実現する。
訳抜け防止モード: このメソッドは常に各パラメータを最適なステップで更新します。 SGDよりも高速な収束を実現する。
0.74
Formally, we denote the quantum state produced by the PQC as |ψθ(cid:105). 形式的には、PQCが生成する量子状態は | θ (cid: 105) である。 0.75
The optimization rule of SQNGD involving the pseudo-inverse g+(θt) of the metric tensor yields (8) where gij(θ) = Re[Gij(θ)] is the Fubini-Study metric tensor, and Gij(θ) is the Quantum Geometric Tensor which can be written as 計量テンソルの擬逆 g+(θt) を含む SQNGD の最適化規則 (8) ここで gij(θ) = Re[Gij(θ)] はフビニ・スタディ計量テンソル、Gij(θ) は量子幾何学テンソルで書ける。
訳抜け防止モード: 計量テンソルの擬逆 g+(θt ) を含む SQNGD の最適化規則 (8) ここで gij(θ ) = Re[Gij(θ ) ] はフビニ-研究計量テンソルである。 そして、Gij(θ ) は量子幾何学的テンソルであり、書ける。
0.74
θt+1 = θt − ηg+(θt)∇C (θ) , θt+1 = θt − ηg+(θt)\c (θ) , , 0.74
Gij(θ) = (cid:104) Gij(θ) = (cid:104) 0.96
∂ψθ ∂θi , ∂∂θθ ∂θi , 0.67
∂ψθ ∂θj (cid:105) − (cid:104) ∂θθ ∂θj (cid:105) − (cid:104) 0.69
∂ψθ ∂θi , ψθ(cid:105)(cid:104)ψθ, ∂∂θθ ∂θi θθ(cid:105)(cid:104)θθ である。 0.54
∂ψθ ∂θj (cid:105) ∂θθ ∂θj (cid:105) 0.63
(9) with θi being the i-th entry of parameter vector θ. (9) θi はパラメータベクトル θ の i 番目のエントリである。 0.81
17 17 0.85
英語(論文から抽出)日本語訳スコア
C Numerical simulation details The outline of this section is as follows. C数値シミュレーションの詳細 この節の概要は以下の通りである。 0.81
The configuration of numerical simulations conducted in Section 3 and 4 is introduced in this section. 本項では,第3節と第4節の数値シミュレーションの構成を紹介する。 0.79
First, we will give a detailed description about the datasets used in Section 3 and 4. まず、第3節と第4節で使用されるデータセットについて詳しく説明します。 0.66
Next, we present the implementation details of each type of QNNs. 次に、各種類のQNNの実装の詳細を示す。 0.62
Last, the deployed simulation hardware and hyper-parameters settings are demonstrated. 最後に、デプロイされたシミュレーションハードウェアとハイパーパラメータ設定を示す。 0.69
C.1 Dataset Quantum synthetic dataset. C.1 データセット 量子合成データセット。 0.64
We randomly sample classical data from uniform distribution and then embed them into quantum circuit by assigning each classical sample to the rotation angle of each quantum rotation gate. 古典的データを一様分布からランダムにサンプリングし、各量子回転ゲートの回転角に各古典的サンプルを割り当てて量子回路に埋め込む。 0.80
After converting classical data x to quantum state ρ(x), we run the quantum circuit shown in Figure and measure the expectation of observable O. 古典的データ x を量子状態 ρ(x) に変換すると、図に示す量子回路を実行し、観測可能な O の期待を測る。 0.82
The whole process is expressed as プロセス全体は次のように表現されます 0.55
fθ(x) = (cid:104)0| U fθ(x) = (cid:104)0| U 0.86
† (x, θ)OU (x, θ)|0(cid:105) , † (x, θ)OU (x, θ)|0(cid: 105) , 0.92
(10) where U denotes the quantum circuit which depends on classical sample x and trainable parameter θ. (10) U は古典的なサンプル x と訓練可能なパラメータ θ に依存する量子回路を表す。 0.79
For binary classification task, the label y of input x is calculated by sign(fθ(x)). 二分分類タスクでは、入力xのラベルyはsign(fθ(x))で計算される。 0.74
We totally collect 200 positive samples and 200 negative samples, and split them into training set and test set equally. 200の正のサンプルと200の負のサンプルを収集し、それらをトレーニングセットとテストセットに等しく分割します。 0.74
Wine dataset. ワインデータセット。 0.76
For 1-D signal, we select the Wine Data Set from UCI Machine Learning Repository, whose feature dimension is similar to the quantum synthetic data so that they can be flexibly encoded into quantum circuit. 1次元信号に対して、UCI Machine Learning Repositoryからワインデータセットを選択し、その特徴次元は量子合成データと似ているので、柔軟に量子回路に符号化できる。 0.74
In addition, the categories are truncated to two classes, keeping consistent with the quantum data. さらに、カテゴリは2つのクラスに切り離され、量子データと一貫性を保つ。 0.69
MNIST dataset. MNISTデータセット。 0.80
For 2-D images, a subset of MNIST is extracted to evaluate performance of QCNN and CNN. 2次元画像に対して、MNISTのサブセットを抽出し、QCNNとCNNの性能を評価する。 0.68
At the same time, the original digit images with size of 28 ∗ 28 are resized to 10 ∗ 10 for reducing resource consumption. 同時に、28∗28の大きさの原桁画像を10∗10にリサイズして資源消費を低減させる。 0.77
License: Yann LeCun and Corinna Cortes hold the copyright of MNIST dataset, which is a derivative work from original NIST datasets. ライセンス: Yann LeCun と Corinna Cortes は、元の NIST データセットから派生した MNIST データセットの著作権を持っている。 0.83
MNIST dataset is made available under the terms of the Creative Commons Attribution-Share Alike 3.0 license. MNISTデータセットはCreative Commons Attribution-Share Alike 3.0ライセンスの下で利用可能である。 0.79
In summary, the statistical characteristics of three datasets are listed in Tabel 1. 要約すると、3つのデータセットの統計特性はTabel 1に記載されている。 0.71
Table 1: Three datasets used in experiments 表1:実験に用いる3つのデータセット 0.81
Dataset Quantum synthetic data The Wine data MNIST ワインデータmnistによるデータセット量子合成データ 0.83
Dimension Class number Training sample Test sample 16 13 10 × 10 次元 クラス番号 トレーニング サンプルサンプルサンプル 16 13 10 × 10 0.77
200 65 2000 200 65 2000 0.85
2 2 10 200 65 2000 2 2 10 200 65 2000 0.85
Implementation details C.2 QNNN. 実施内容 C.2QNNN。 0.56
QNNN is roughly divided into two blocks, including the feature embedding block and trainable measurement block. QNNNは、機能埋め込みブロックとトレーニング可能な測定ブロックを含む、大きく2つのブロックに分けられる。 0.75
In this paper, the feature embedding block converts the classical data into quantum state by setting the parameter of quantum gates with classical data. 本稿では,量子ゲートのパラメータを古典データに設定することで,古典的データを量子状態に変換する特徴埋め込みブロックを提案する。 0.82
The measurement block consists of a variational quantum circuit that linearly transforms the prepared quantum state and the measurement operation that calculates the expectation of Pauli Z basis. 測定ブロックは、準備された量子状態を線形に変換する変分量子回路と、パウリZ基底の期待値を算出する測定演算からなる。 0.86
The number of qubits in experiments depends on the feature dimension of datasets. 実験における量子ビットの数はデータセットの特徴次元に依存する。 0.77
Concretely, we employ quantum circuits with 16, 13 and 4 qubits for quantum synthetic data, the Wine Data Set and MNIST respectively. 具体的には, 量子合成データに16, 13, 4量子ビットの量子回路, ワインデータセット, mnistを用いる。 0.72
The detailed circuit arrangement is described in Figure 8 (a). 詳細な回路配置を図8(a)に示す。 0.71
18 18 0.85
英語(論文から抽出)日本語訳スコア
err 翻訳エラー 0.00
英語(論文から抽出)日本語訳スコア
Figure 9: Layout of CNN and QCNN. 図9: CNNとQCNNのレイアウト。 0.75
The top half represents the overall structure of these two models. 上半分は2つのモデル全体の構造を表している。 0.76
What is the difference between CNN and QCNN is the convolution kernel. CNNとQCNNの違いは、畳み込みカーネルである。 0.67
(a) CNN kernel. (a)CNNカーネル。 0.62
The classical convolution kernel is implemented by the fully-connected layer, which takes the flattened pixels inside a local patch as input and outputs the convolutional result. 古典的畳み込みカーネルは完全連結層によって実装され、局所パッチ内の平坦なピクセルを入力として、畳み込み結果を出力する。 0.71
(b) QCNN kernel. (b)QCNNカーネル。 0.69
Firstly, the value of each pixel inside the same window of a kernel is encoded as the angle of RX gate. まず、カーネルの同一ウィンドウ内の各画素の値をRXゲートの角度として符号化する。 0.74
Then several controlled-RZ (CRZ) and controlled-RX (CRX) operators are employed to learn the transformation. その後、いくつかの制御RZ(CRZ)および制御RX(CRX)演算子を用いて変換を学習する。 0.68
Finally, we measure the expectation of Pauli Z basis on the first qubit as the result of quantum convolution. 最後に、量子畳み込みの結果、パウリz基底の期待値を最初の量子ビットに基づいて測定する。 0.72
Figure 10: Layout of MLP for MNIST. 図10: MNIST 用の MLP のレイアウト。 0.80
We first convert the image to an 1-D vector, followed by two FC (fully-connected) layers. まずイメージを 1-D ベクトルに変換し、次に 2 つの FC (完全連結) 層に変換する。 0.70
By only replacing the first convolutional layer of CNN and QCNN with a FC layer, we can figure out the role of quantum convolutional kernel in the training. CNNとQCNNの最初の畳み込み層をFC層に置き換えることによって、トレーニングにおける量子畳み込みカーネルの役割を明らかにすることができる。 0.80
20 ConvolutionInput512* 3232*10FCFC(a) CNN kernel(b) QCNN kernel1010888Input10 0*3232*10FCFC1010 20 ConvolutionInput512* 3232*10FCFC(a) CNN kernel(b) QCNN kernel1010888Input10 0*3232*10FCFC1010 0.86
英語(論文から抽出)日本語訳スコア
C.3 The deployed hardware and hyper-parameter settings The QNNs referred in this paper are implemented based on Pennylane [72] and PyTorch [73]. C.3 展開ハードウェアとハイパーパラメータ設定 本論文で言及されているQNNはPennylane[72]とPyTorch[73]に基づいて実装されている。 0.73
Due to the limited accessibility of physical quantum computers, all experiments are simulated on classical computers with Intel(R) Xeon(R) Gold 6267C CPU @ 2.60GHz and 128 GB memory. 物理量子コンピュータのアクセシビリティが制限されているため、すべての実験はIntel(R) Xeon(R) Gold 6267C CPU @ 2.60GHz と 18GB のメモリでシミュレーションされる。 0.81
To simulate the quantum noise, we adopt the noise model from ibmq_16_melbourne, which is one of the IBM Quantum Canary Processors [61]. 量子ノイズをシミュレートするために、IBM量子カナリアプロセッサの1つであるibmq_16_melbourneのノイズモデルを採用する[61]。 0.82
For fair comparison, the number of trainable parameters of different models for the same task is kept close and the structure-independen t hyper-parameters during training are not fine tuned specifically for each model but always keep the same setting for one task. 公平に比較すると、同じタスクに対する異なるモデルのトレーニング可能なパラメータの数は密接なままであり、トレーニング中の構造に依存しないハイパーパラメータは、各モデルに対して特別に調整されるのではなく、常にひとつのタスクに対して同じ設定を保持する。 0.65
Meantime, the experiment with a specific configuration is repeated 10 times and calculate the average as final experiment result. 同時に、特定の構成による実験を10回繰り返し、最終実験結果として平均を計算する。 0.80
The rigorous experiment setup is listed in Table 2. 厳格な実験はテーブル2に記載されている。 0.74
Table 2: Hyper-parameter setting in the experiments Model Learning rate Batch size Optimizer QNNN 0.01 QENN 0.01 QCNN 0.001 CNN 0.001 表2:モデル学習率バッチサイズ最適化器QNNN 0.01 QENN 0.01 QCNN 0.001 CNN 0.001実験におけるハイパーパラメータ設定 0.72
SGD SGD Adam Adam sgd sgd アダム・アダム 0.49
4 4 5 5 D The performance of QNNs in the NISQ scenario In this section, we explore the performance of QNNs under the NISQ scenario. 4 4 5 5 D NISQシナリオにおけるQNNの性能 この節では、NISQシナリオ下でのQNNの性能について検討する。 0.83
The achieved results are depicted in Figure 11. 結果は図11に示されています。 0.82
In particular, the solid and dashed lines describe the training process on noiseless and NISQ devices respectively. 特に、固体線と破断線はそれぞれノイズレスデバイスとNISQデバイスのトレーニングプロセスを記述する。 0.71
An immediate observation is that quantum system noise largely weaken the power of quantum models, leading to a severe accuracy drop (from about 94% to 80%) on quantum synthetic data. 量子系のノイズは量子モデルのパワーを大幅に低下させ、量子合成データに対する精度の低下(約94%から80%)を引き起こす。 0.71
Furthermore, the noisy QNNs seems to completely lose the ability of matching the random data. さらに、ノイズの多いQNNは、ランダムなデータをマッチングする能力を完全に失っているようだ。 0.65
Figure 11: Quantum noise reduces quantum model capacity. 図11: 量子ノイズは量子モデルの容量を減らす。 0.82
FT denotes the fault-tolerant devices, TL is the abbreviation of "true label", and RL is the abbreviation of "random label". FTは耐故障性デバイスを表し、TLは「真のラベル」の略であり、RLは「ランダムラベル」の略である。 0.78
When running the same quantum circuit on noisy devices,there is a serious performance decline in terms of the ability of learning the original data and fitting random label. ノイズの多いデバイス上で同じ量子回路を実行する場合、元のデータを学習しランダムラベルを適合させる能力という点で、パフォーマンスが大幅に低下する。 0.73
21     54.      ..:7,."     54."97,3%%9089%%97,3$"%9089$"%97,3%#9089%#97,3$"#9089$"# 21     54.      ..:7,."     54."97,3%%9089%%97,3$"%9089$"%97,3%#9089%#97,3$"#9089$"# 0.62
英語(論文から抽出)日本語訳スコア
E Trainability of QNNs on other datasets Here we proceed a series of experiments investigate the trainability of QNNs with respect to the two regularization techniques, i.e., stochastic gradient descent (SGD) and weight decay, on the quantum synthetic dataset. その他のデータセット上でのQNNのトレーニング可能性 ここでは、量子合成データセット上での2つの正規化手法、すなわち確率勾配降下(SGD)と重み減衰に関する一連の実験を行う。 0.72
The collected results are shown in Figure 12. 収集した結果は図12に示します。 0.86
Figure 12: Effects of regularization techniques on the training of QNNs on quantum synthetic data. 図12: 量子合成データにおけるQNNのトレーニングにおける正規化手法の効果 0.89
GD is gradient decent, SGD is stochastic gradient descent, WD is weight decay and N means running the experiments on NISQ chips. GDは勾配、SGDは確率勾配降下、WDは重量減衰、NはNISQチップ上で実験を行うことを意味する。 0.63
SGD plays a significant role in accelerating convergence and achieving higher accuracy, while early stopping hinders the optimization process instead of boosting performance. SGDは収束を加速し、高い精度を達成する上で重要な役割を果たす一方で、早期停止は性能を向上する代わりに最適化プロセスを妨げている。 0.62
SGD. The batch SGD optimizer effectively boosts the convergence rate of QNNs without obvious over-fitting. SGD バッチSGDオプティマイザは、明らかにオーバーフィットすることなく、QNNの収束率を効果的に向上させる。 0.47
Specifically, in the first 20 epochs, the train and test accuracy of QNNN (QENN) with SGD rapidly rise to nearly 95% (80%), while GD optimizer only helps QNNN (QENN) achieve 3% (2%) accuracy growth with respect to the initial models. 具体的には、最初の20年代において、SGDによるQNNN(QENN)の列車とテストの精度は急速に95%(80%)向上し、一方GDオプティマイザは初期モデルに関してQNNN(QENN)の精度が3%(2%)向上するのに役立つ。 0.81
After finishing the whole training process after 100 epochs, there is still a 20% (30%) accuracy gap between QNNN (QENN) optimized by the vanilla GD and SGD optimizers. 100エポック後のトレーニングプロセス全体を終えた後も、バニラGDとSGDオプティマイザによって最適化されたQNNN(QENN)の精度ギャップは20%(30%)残っている。 0.72
In view of the substantial positive effects brought by SGD on the training of QNNs, we further exploit how the batch size effects the trainability of QNNs. SGDがQNNのトレーニングにもたらす実質的な効果を考慮し、バッチサイズがQNNのトレーニング性にどのように影響するかをさらに活用する。 0.65
As depicted in Figure 13, it appears an nonmonotonic decline of the convergence rate and accuracy with respect to the increment of batch size. 図13に示すように、バッチサイズの増加に関して、収束率と精度が非単調に低下しているように見える。 0.71
And there exists an optimal batch size, which allows the best convergence rate and the highest accuracy (the best batch size is around 8 in our setting). そして最適なバッチサイズが存在し、最高の収束レートと最高の精度を実現します(最高のバッチサイズは、設定で約8です)。 0.74
NISQ. Although SGD optimizer facilitates the trainability of QNNs, the system noise in NISQ devices weakens the positive effect brought by SGD. NISQ SGDオプティマイザはQNNのトレーニングを容易にするが、NISQデバイスにおけるシステムノイズはSGDがもたらす正の効果を弱める。 0.58
As indicated by the purple line in Figure 12, it appears almost 10% (5%) accuracy decay for QNNN (QENN) in the first 20 training epochs in the NISQ scenario. 図12の紫色の線で示されるように、NISQシナリオの最初の20のトレーニングエポックにおいて、QNNN(QENN)の精度が約10%(5%)低下しているように見える。 0.77
Meantime, the existence of noise extremely amplifies the runtime of QNNs by classical simulations (Please refer to Appendix F for more details). ノイズの存在は、古典的なシミュレーションによってQNNのランタイムを著しく増幅する(詳細はAppendix Fを参照)。 0.77
Weight decay. Weight decay plays a slightly different role in the training of QNNN and QENN. 体重減少。 軽量崩壊はQNNNとQENNの訓練において若干異なる役割を果たす。 0.63
For QNNN, there is no significant effect after applying the weight decay regularizer to the SGD optimizer. QNNNの場合、SGDオプティマイザに重崩壊正則化器を適用した後、大きな効果はない。 0.61
For QENN which is more powerful than QNNN, the strategy of weight decay leads to faster convergence and finally achieve a higher accuracy. QNNNよりも強力なQENNの場合、重量減衰の戦略はより速く収束し、最終的に高い精度を達成する。 0.78
Note that both QNNN and QENN do not encounter apparent over-fitting issue on quantum synthetic data, which leaves little space for weight decay to show its potential in alleviating over-fitting. QNNNとQENNは共に、量子合成データに明らかな過剰適合の問題に遭遇しない。
訳抜け防止モード: qnnnとqennは、量子合成データに対する明らかな過剰フィッティング問題に遭遇しない。 重量減少の余地がほとんどなく、オーバーフィッティングを緩和する可能性を示す。
0.70
22   54.      ..:7,."   54."         97,3908997,3$9089$97,3$9089$97,3$9089$ 22   54.      ..:7,."   54."         97,3908997,3$9089$97,3$9089$97,3$9089$ 0.75
英語(論文から抽出)日本語訳スコア
(a) Training process (b) Accuracy vs batch size (a)訓練過程 (b)精度対バッチサイズ 0.76
Figure 13: Batch size of SGD significantly influences the training of quantum models. 図13: SGDのバッチサイズは量子モデルのトレーニングに大きな影響を与えます。 0.81
(a) shows the convergence of quantum models with different setting of batch size. (a)バッチサイズの設定が異なる量子モデルの収束を示す。 0.71
bs is abbreviation of batch size. bsはバッチサイズの略です。 0.68
(b) shows the the fluctuation of test accuracy with respective to batch size. (b) バッチサイズに応じたテスト精度の変動を示す。 0.66
F Runtime analysis We compare the runtime of QNNs and DNNs when processing the Wine dataset with the fixed number of qubits. F実行時解析 我々は、Wineデータセットを処理する場合のQNNとDNNのランタイムと、固定されたキュービット数を比較する。 0.68
As shown in Figure 14 (a), simulating QNNs under the NISQ setting suffers from the lowest efficiency, which averagely spends 126s to execute one iteration. 図14(a)に示すように、NISQ設定下でのQNNのシミュレートは、平均126回のイテレーションの実行に126回費やす最も低い効率に苦しむ。 0.74
For the fault-tolerant setting, the running time of every optimization step steeply declines to 3s. フォールトトレラントな設定では、最適化ステップ毎の実行時間が3sに激減する。 0.70
However, there still exists a huge gap of time cost between simulating QNNs and DNNs on classical computers. しかし、従来のコンピュータ上でのQNNとDNNのシミュレーションには、依然として膨大な時間コストのギャップがある。 0.67
Another noticeable phenomenon is that noise cause a greater negative impact on the running time of larger-scale QNNs. もうひとつの注目すべき現象は、ノイズが大規模qnnの実行時間に大きな負の影響をもたらすことである。
訳抜け防止モード: もう一つの注目すべき現象は ノイズは大きなスケールのqnnの実行時間に大きな負の影響をもたらす。
0.72
After applying noise in the training, QENN spends more 114s than QNNN on every iteration, while the increment in time with fault-tolerant setting is 1s. トレーニングにノイズを適用した後、QENNはイテレーション毎にQNNNよりも114秒多く使用し、フォールトトレラントな設定でのインクリメントは1秒である。 0.66
In light of the exponential growth of runtime with the increased scale of QNNs, we next indicate how the number of qubits effects their simulation time. 次に,QNNの規模拡大に伴うランタイムの指数的成長を考慮し,量子ビットの数がシミュレーション時間に与える影響を示す。 0.83
As shown in Figure 14 (b), the runtime of simulating QNNN is sensitive to the qubit scale, appearing an exponential growth with the increment of qubits, especially for QNNN in NISQ environment. 図14(b)に示すように、QNNNをシミュレートするランタイムはキュービットスケールに敏感であり、特にNISQ環境でのQNNNでは、キュービットの増加とともに指数関数的に成長する。 0.79
On the contrary, MLP experiences a negligible growth of time on every training iteration when the dimensions of input feature vector and hidden layer steadily increase. それとは対照的に、MLPは入力特徴ベクトルと隠れ層の寸法が着実に増加すると、トレーニングイテレーション毎に無視可能な時間の増大を経験する。 0.70
(a) (b) Figure 14: Runtime of QNNs and DNNs simulated by classical computers. (a) (b) 図14: 古典コンピュータでシミュレートされたQNNとDNNのランタイム。 0.83
FT is the abbreviation of "Fault-tolerant". FT は "Fault-tolerant" の略である。 0.82
(a) Comparison of running time of every iteration for each setting. (a)各設定における各イテレーションの実行時間の比較。 0.85
Currently, the time cost of simulating noisy quantum circuits on classical computers is unacceptable, which is hundreds of times higher than that of the counterpart of classical version. 現在、古典型コンピュータ上のノイズの多い量子回路をシミュレーションする時間費用は受け入れがたいが、これは古典型よりも数百倍高い。 0.62
(b) With the increasing number of required qubits for feature embedding, the time of training noisy QNNN grows exponentially while MLP sees a slow and negligible growth of running time. b) 機能埋め込みに必要なキュービット数が増加するにつれて, ノイズの多いQNNNのトレーニング時間は指数関数的に増加し, MLPは実行時間の遅くて無視できない成長をみせている。 0.77
23   54.     ..:7,."   54."      97,3-89089-897,3-89089-897,3-89089-897,3-89089-897,3-89089-8,9.80      ..:7,.""       #:3339208 907"$""$""%"%!      :2-07416:-98       %208 907"%"$"!   23   54.     ..:7,."   54."      97,3-89089-897,3-89089-897,3-89089-897,3-89089-897,3-89089-8,9.80      ..:7,.""       #:3339208 907"$""$""%"%!      :2-07416:-98       %208 907"%"$"!   0.56
                                               ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。