論文の概要、ライセンス

# (参考訳) 変分ベイのための量子自然勾配 [全文訳有]

Quantum Natural Gradient for Variational Bayes ( http://arxiv.org/abs/2106.05807v1 )

ライセンス: CC BY 4.0
Anna Lopatnikova and Minh-Ngoc Tran(参考訳) 変分ベイズ(VB)は機械学習と統計学において重要な手法であり、最近のベイズ深層学習の成功を支えている。 自然勾配は効率的なVB推定の必須成分であるが、高次元では計算コストが禁じられている。 本稿では,自然勾配計算のスケーリング性を向上させるためのハイブリッド量子古典アルゴリズムを提案する。 このアルゴリズムはHarrow, Hassidim, Lloyd [Phys] による線形システムアルゴリズムからの行列逆変換を利用する。 Rev Lett! 103, 15 (2009)] (HHL)。 逆行列はスパースであり、古典的量子古典的ハンドオフは計算効率を維持するのに十分な経済的であり、VBの自然勾配の問題がHHLの理想的な応用であることを示す。 標準条件下では、量子自然勾配を持つvbアルゴリズムが収束することが保証される。

Variational Bayes (VB) is a critical method in machine learning and statistics, underpinning the recent success of Bayesian deep learning. The natural gradient is an essential component of efficient VB estimation, but it is prohibitively computationally expensive in high dimensions. We propose a hybrid quantum-classical algorithm to improve the scaling properties of natural gradient computation and make VB a truly computationally efficient method for Bayesian inference in highdimensional settings. The algorithm leverages matrix inversion from the linear systems algorithm by Harrow, Hassidim, and Lloyd [Phys. Rev. Lett. 103, 15 (2009)] (HHL). We demonstrate that the matrix to be inverted is sparse and the classical-quantum-cl assical handoffs are sufficiently economical to preserve computational efficiency, making the problem of natural gradient for VB an ideal application of HHL. We prove that, under standard conditions, the VB algorithm with quantum natural gradient is guaranteed to converge.
公開日: Thu, 10 Jun 2021 15:15:07 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
0 1 ] h pt n a u q [ 0 1 ] h pt n a u q [ 0.85
1 v 7 0 8 5 0 1 v 7 0 8 5 0 0.85
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Quantum Natural Gradient for Variational Bayes∗ 変分ベイズ*の量子自然勾配 0.77
Discipline of Business Analytics, The University of Sydney Business School, シドニー大学ビジネススクール (University of Sydney Business School) の略。 0.68
Anna Lopatnikova† and Minh-Ngoc Tran‡ アンナ・ロパトニコワとミン=ゴック・トラン 0.45
The University of Sydney, NSW 2006, Australia シドニー大学, nsw 2006オーストラリア 0.51
(Dated: June 11, 2021) (2021年6月11日廃止) 0.60
Variational Bayes (VB) is a critical method in machine learning and statistics, underpinning the recent success of Bayesian deep learning. 変分ベイズ(VB)は機械学習と統計学において重要な手法であり、最近のベイズ深層学習の成功を支えている。 0.68
The natural gradient is an essential component of efficient VB estimation, but it is prohibitively computationally expensive in high dimensions. 自然勾配は効率的なVB推定の必須成分であるが、高次元では計算コストが禁じられている。 0.67
We propose a hybrid quantum-classical algorithm to improve the scaling properties of natural gradient computation and make VB a truly computationally efficient method for Bayesian inference in highdimensional settings. 本稿では,自然勾配計算のスケーリング性を向上させるためのハイブリッド量子古典アルゴリズムを提案する。
訳抜け防止モード: 自然勾配計算のスケーリング特性を改善するためのハイブリッド量子-古典アルゴリズムを提案する。 そして、VBを高次元設定におけるベイズ推論の真に効率的な方法とする。
0.72
The algorithm leverages matrix inversion from the linear systems algorithm by Harrow, Hassidim, and Lloyd [Phys. このアルゴリズムはHarrow, Hassidim, Lloyd [Phys] による線形システムアルゴリズムからの行列逆変換を利用する。 0.78
Rev. Lett. 103, 15 (2009)] (HHL). Rev Lett! 103, 15 (2009)] (HHL)。 0.62
We demonstrate that the matrix to be inverted is sparse and the classical-quantum-cl assical handoffs are sufficiently economical to preserve computational efficiency, making the problem of natural gradient for VB an ideal application of HHL. 逆行列はスパースであり、古典的量子古典的ハンドオフは計算効率を維持するのに十分な経済的であり、VBの自然勾配の問題がHHLの理想的な応用であることを示す。 0.63
We prove that, under standard conditions, the VB algorithm with quantum natural gradient is guaranteed to converge. 標準条件下では、量子自然勾配を持つvbアルゴリズムが収束することが保証される。 0.67
Keywords. Quantum machine learning, quantum algorithm, Bayesian computation. キーワード。 量子機械学習、量子アルゴリズム、ベイズ計算。 0.76
I. INTRODUCTION Variational Bayes (VB), also called Variational Inference, has been instrumental to the recent surge in successful applications of deep learning, including those in large-scale industrial settings, such as language translation, image recognition and speech synthesis; see [1–3] and references therein. I 導入 変分ベイズ(vb、変分推論とも呼ばれる)は、言語翻訳、画像認識、音声合成などの大規模産業環境での成功例を含む、ディープラーニングの最近の応用の増加に寄与している。
訳抜け防止モード: I 導入 変分ベイズ(英: variational bayes、vb)は、変分推論(英: variational inference、変分推論)とも呼ばれ、ディープラーニングの応用の成功の高まりに寄与している。 言語翻訳、画像認識、音声合成など、大規模な産業環境を含む。 参照がある。
0.49
VB allows reasoning with uncertainty via approximating otherwise intractable posterior distributions in sophisticated and complex machine learning models; see Section II for a brief overview. VBは、洗練された複雑な機械学習モデルにおいて、難解な後続分布を近似することで不確実性のある推論を可能にする。
訳抜け防止モード: vbは不確実性のある推論を可能にする 高度で複雑な機械学習モデルにおける難解な後続分布の近似化 詳細は第2節を参照のこと。
0.65
VB is computationally efficient relative to alternative methods, such as those based on Monte-Carlo sampling, and is more scalable, making Bayesian deep learning possible. vbはモンテカルロサンプリングに基づく他の手法と比較して計算効率が良く、よりスケーラブルであり、ベイズ深層学習を可能にする。 0.66
However, there are still many possible applications of Bayesian inference, such as online learning and with extremely large models (see, e g , in high-energy physics, [4]), that remain too computationally intensive with current computing technologies despite recent advances in VB. しかし、オンライン学習や非常に大きなモデル(例えば、高エネルギー物理学では[4])など、近年のVBの進歩にもかかわらず、現在のコンピューティング技術には計算集約的すぎるようなベイズ推論の応用は、まだ多数存在する。 0.73
One of the most promising classical advances in VB is the use of natural gradient instead of Euclidean gradient in stochastic gradient descent [5–8]. VBの最も有望な古典的進歩の1つは、確率的勾配降下 [5–8] においてユークリッド勾配の代わりに自然勾配を用いることである。 0.60
Being a geometric object that takes into account the information geometry of the variational family, natural gradient often leads to faster and more stable convergence than alternative methods [9]. 変分系の情報幾何学を考慮した幾何学的対象であることから、自然勾配はしばしば他の方法よりも高速で安定な収束をもたらす [9]。 0.76
In situations where variational parameters lie on Riemannian manifolds, natural gradient is the only reliable adaptive learning method that speeds up VB training. 変動パラメータがリーマン多様体上に存在する場合、自然勾配はVBトレーニングを高速化する唯一の信頼できる適応学習法である。 0.64
However, in many cases, accurate computation of natural gradient is infeasible. しかし、多くの場合、自然勾配の正確な計算は不可能である。 0.62
The natural gradient method requires the analytic computation and inversion of the Fisher information matrix, which has a complexity of O(N d), with 2 < d ≤ 3 depending on various algorithms, and N is the number of variational parameters (see Section II). 自然勾配法では、O(N d) の複雑さを持つフィッシャー情報行列の解析計算と逆変換が必要であり、2 < d ≤ 3 は様々なアルゴリズムに依存し、N は変分パラメータの数である(第2節参照)。 0.81
It is therefore prohibitively computationally expensive to use natural gradient in high-dimensional cases; current practice resorts to heuristic workarounds that can affect the results of Bayesian inference. したがって、高次元の場合では自然勾配を使うのは計算量的に高価であり、現在の慣行はベイズ推論の結果に影響を与えるヒューリスティックな回避策を採っている。 0.57
This paper proposes an algorithm for efficient estimation of the natural gradient for VB with the help of a general quantum computer. 本稿では,一般量子コンピュータの助けを借りて,VBの自然勾配を効率的に推定するアルゴリズムを提案する。 0.84
The algorithm leverages quantum matrix inversion from the quantum linear systems algorithm by Harrow, Hassidim, and Lloyd [10] – the HHL algorithm. このアルゴリズムは、Harrow, Hassidim, Lloyd [10] – HHLアルゴリズムによる量子線形系アルゴリズムからの量子行列の逆変換を利用する。 0.89
In order to leverage the HHL algorithm, we use a recent reformulation of the problem of natural gradient estimation for VB into a linear regression problem by Lopatnikova and Tran [11–13]. hhlアルゴリズムを活用するために,最近のvbの自然勾配推定問題をlopatnikova と tran [11–13] による線形回帰問題に再構成した。 0.67
The resulting quantum natural gradient algorithm benefits from the exponential speedup of sparse matrix inversion while addressing the critical computationally taxing overheads of quantum state preparation and readout [14]. 得られた量子自然勾配アルゴリズムはスパース行列のインバージョンを指数関数的に高速化し、量子状態の準備と読み出しのオーバーヘッドを計算的に軽減する[14]。 0.80
Specifically, the initial state preparation for the proposed linear regression formulation of natural gradient is efficient, requiring a relatively small Mdimensional initial quantum state, where M ≪ N . 具体的には、提案された自然勾配の線形回帰の定式化のための初期状態の準備は効率的であり、比較的小さなM次元の初期量子状態を必要とする。
訳抜け防止モード: 具体的には, 自然勾配の線形回帰定式化のための初期状態準備が効率的である。 比較的小さなM次元の初期量子状態を必要とする。
0.84
The output quantum state encoding the natural gradient 自然勾配を符号化する出力量子状態 0.87
∗ The research was partially supported by the Australian Research Council’s Discovery Project DP200103015. オーストラリア研究評議会の発見プロジェクトDP200103015によって部分的に支持された。 0.71
† anna.lopatnikova@syd ney.edu.au ‡ Australian Centre of Excellence for Mathematical and Statistical Frontiers (ACEMS); minh-ngoc.tran@sydne y.edu.au anna.lopatnikova@syd ney.edu.au オーストラリア数学・統計フロンティアセンター (acems) minh-ngoc.tran@sydne y.edu.au 0.68
英語(論文から抽出)日本語訳スコア
2 is an N -dimensional quantum state, but full tomography of this state is not required. 2 N-次元量子状態であるが、この状態の完全なトモグラフィは必要ない。 0.81
We demonstrate that a limited number of quantum measurements yields an unbiased estimate of the natural gradient; it is sufficient for both theoretical convergence guarantees and efficient convergence in practice, as we show in simulation with the use of a real high-dimensional dataset. 実高次元データセットを用いたシミュレーションで示すように, 量子測定の限られた数では, 自然勾配の偏りのない推定値が得られ, 理論収束保証と効率収束の両立に十分であることを示す。 0.82
Gradient decent with natural gradient obtained by quantum measurement is, in effect, stochastic natural coordinate descent. 量子測定によって得られる自然勾配の勾配は、事実上、確率的自然座標降下である。 0.70
If σ is the required standard error of natural gradient coordinate estimation, the worst-case all-in (including state preparation, and repeated recomputation and measurement) computational complexity of quantum operations is ¯O(M 2κ2ε−1σ−2 log N ), where κ is the condition number of the inverted matrix (defined in Section III B), which can be bounded by preconditioning, ε is the precision required during quantum computation, and ¯O notation suppresses lower-order terms. σ が自然勾配座標推定の標準誤差である場合、量子演算の最悪ケースオールイン(状態準備と繰り返し再計算と測定を含む)の計算複雑性は、κ は逆行列(第III節Bで定義されている)の条件番号であり、ε は量子計算で必要とされる精度、 ε は低次項を抑える。
訳抜け防止モード: σ が自然勾配座標推定に必要な標準誤差であれば、 最悪の、すべての場合、(州の準備を含む) そして、繰り返し再計算と測定 ) 量子演算の計算複雑性は、 (M 2κ2ε−1σ−2 log N ) である。 κ が逆行列の条件数である場合(第III節B で定義される) ε は量子計算に必要な精度である。 O 表記は低い順序項を抑える。
0.79
In practice, the overall complexity of the hybrid classical-quantum algorithm will be of ¯O(N ) because of parameter updating, (classical) sampling from the variational distribution, and control of unitary gates for use in the quantum algorithm. 実際には、ハイブリッド古典量子アルゴリズムの全体的な複雑さは、パラメータの更新、変分分布からの(古典的な)サンプリング、量子アルゴリズムで使用するユニタリゲートの制御などにより「O(N )」となる。 0.82
Even though the overall speedup is not exponential, for high-dimensional inference problems the achieved quadratic (or greater) speedup is highly significant in practice. 全体的なスピードアップは指数関数的ではないが、高次元の推論問題では達成された二次的(あるいはより大きな)スピードアップは実際非常に重要である。 0.58
Our work contributes to several strands of literature: First, we provide a way to leverage quantum computers to speed up learning for a broad class of existing classical machine-learning models, contributing to the rapidly expanding field of quantum machine learning (QML). まず、量子コンピュータを活用して、既存の古典的機械学習モデルの幅広いクラスにおける学習を高速化する方法を提供し、量子機械学習(QML)の急速な発展に寄与します。
訳抜け防止モード: 私たちの研究はいくつかの文献に寄与します まず、量子コンピュータを利用して既存の古典機械の学習を高速化する方法を提供する。 学習モデル 量子機械学習(QML)の急速に拡大する分野に寄与する。
0.82
Similarly to a number of QML works, we leverage the building blocks of the HHL algorithm. 多くのQML処理と同様に、HHLアルゴリズムのビルディングブロックを利用する。 0.56
For example, Schuld et al [15] use singular value decomposition (SVD) in the context of predictive regression; their implementation differs from ours – it elegantly suits the prediction problem, but is not suitable for natural gradient estimation. 例えば、Schuld et al [15] は予測回帰の文脈で特異値分解(SVD)を用いており、その実装は我々のものと異なる。
訳抜け防止モード: 例えば、Schuld et al [ 15 ] は予測回帰の文脈で特異値分解(SVD)を使用する。 それらの実装は私たちのものと異なり、予測問題に優雅に適合します。 しかし 自然勾配推定には適していません
0.72
A similar approach to SVD is used by Duan et al [16]. SVD と同様のアプローチが Duan らによって使用されている [16]。 0.80
Wang et al [17] uses SVD to construct a pseudo inverse for linear systems, using the approach of Childs et al [18] to matrix inversion. wang ら al[17] は、svd を用いて線型系に対する擬似逆行列を構築し、子と al[18] の行列反転へのアプローチを用いている。
訳抜け防止モード: Wang et al [ 17 ] は SVD を使って線形系に対する擬似逆数を構成する。 Childs et al [ 18 ] のアプローチを使って行列の逆転を行う。
0.85
Childs et al [18] algorithm gives a better dependence on precision than the HHL algorithm; for our application, where it is sufficient to obtain a noisy estimate of the natural gradient, as long it is unbiased, the dependence on precision is not a significant driver of computational complexity [19]. 本手法は,hhlアルゴリズムよりも精度に優れた依存度を与えており,本手法では,精度依存性が計算複雑性の有意な要因ではない限り,自然勾配のノイズ推定を得るのに十分である。
訳抜け防止モード: Childs et al [18 ] algorithm は HHL algorithm よりも精度に優れた依存性を与える アプリケーションにとって どこで 自然勾配のノイズの多い推定値を得るには十分です 偏りがない限り、精度への依存は計算複雑性の重要な要因にはなりません [19]。
0.84
Predictive regressions on a quantum computer have also been proposed by Wiebe et al , Wang, and Liu et al [20–22]. 量子コンピュータ上の予測回帰は、Wiebe et al , Wang, and Liu et al [20–22] によっても提案されている。 0.75
Kerenidis and Prakash [23] use building blocks of HHL for Euclidean gradient descent for affine transformations. Kerenidis と Prakash [23] はアフィン変換のユークリッド勾配降下に HHL の構成要素を用いる。 0.74
Miyahara and Sughiyama [24] perform mean-field VB via quantum annealing – an alternative to gradient descent optimization. 宮原とSughiyama [24]は、勾配降下最適化の代替として、量子アニールによる平均場VBを実行する。 0.57
A large substrand of QML literature focuses on development of special-purpose quantum learning models ([25–31] and references therein). QML文献の大きなサブストランドは、特殊目的量子学習モデル([25-31]とその参照)の開発に焦点を当てている。 0.75
McClean et al [32] developed a learning theory of variational quantum classical algorithms based on variational quantum states. McCleanら[32]は変分量子状態に基づく変分量子古典アルゴリズムの学習理論を開発した。 0.82
McArdle et al [33] use what is, effectively, natural gradient descent in a classical outer loop to model imaginary time evolution on a quantum computer using a variational quantum ansatz state. mcardle et al [33] 量子コンピュータ上で変分量子アンサッツ状態を用いて仮想時間発展をモデル化するために、古典的外ループにおける自然勾配降下を用いる。 0.77
Harrow and Napp [34] show that direct measurements of the gradient of the objective function can improve convergence in variational hybrid quantum-classical algorithms with variational quantum states. harrow と napp [34] は、目的関数の勾配を直接測定することで、変動量子状態を持つ変分ハイブリッド量子古典アルゴリズムの収束を改善することができることを示した。 0.72
While our method does not require a special-purpose variational quantum model, it can help speed up learning on quantum learning models. 本手法は,特殊目的変動量子モデルを必要としないが,量子学習モデルの学習の高速化に役立つ。 0.86
Second, we contribute to general advances in efficient quantum gradient descent. 第二に、効率的な量子勾配勾配の一般化に寄与する。 0.64
Recently, Stokes [35] proposed to use a quantum computer to perform natural gradient computations for a special subclass of problems, where the variational states and the objective function can be encoded in as a quantum state and a quantum mechanical observable respectively, and the matrix representing the objective function is block-diagonal. 近年、ストークス [35] は、量子コンピュータを用いて、変分状態と目的関数をそれぞれ量子状態と量子力学的観測可能として符号化し、対象関数を表す行列がブロック対角型であるような、特殊な部分クラスの問題に対して自然勾配計算を行うように提案している。 0.77
Similarly, Schuld et al [36] propose the evaluation of the gradient for special-form quantum variational distributions. 同様に、Schuld et al [36] は特殊形式量子変分分布の勾配の評価を提案した。 0.82
We use an alternative approach because, for high-dimensional problems, encoding a distribution function directly into a quantum state can be prohibitively expensive – it would require at least O(N ) qubits [37]. 我々は、高次元問題に対して、分布関数を直接量子状態に符号化することは禁断に高価であり、少なくともO(N ) qubits [37] を必要とする。 0.70
Rebentrost et al [38] propose an end-to-end quantum algorithm to find the minimum of a homogeneous polynomial using Newton’s method [39]. Rebentrost et al [38] はニュートン法による等質多項式の最小値を求めるためにエンドツーエンドの量子アルゴリズムを提案する[39]。 0.87
The challenge of the end-to-end quantum approach to iterative algorithms is that many quantum algorithms require the creation of several quantum states, some of which are destroyed conditional on the measurement of an auxiliary qubit. 反復的アルゴリズムに対するエンドツーエンドの量子アプローチの課題は、多くの量子アルゴリズムがいくつかの量子状態の生成を必要とすることである。
訳抜け防止モード: 反復アルゴリズムに対する終端量子アプローチの課題は、多くの量子アルゴリズムが複数の量子状態を生成する必要があることである。 いくつかは補助量子ビットの測定で 破壊されています
0.87
If the probability of creating the desired state at each iteration is p, then, in order to have the desired result after T iterations, one needs to start with O(p−T ) qubits. 各イテレーションで所望の状態を生成する確率が p であれば、t イテレーションの後に所望の結果を得られるためには、o(p−t ) 量子ビットから始める必要がある。 0.78
Therefore, end-to-end quantum algorithms can only work for iterative computations only if a few iterative steps are sufficient [40]. したがって、エンドツーエンドの量子アルゴリズムは、数回の反復ステップが十分である場合に限り、反復計算でしか機能しない [40]。
訳抜け防止モード: したがって、終端から終端までの量子アルゴリズムは反復計算でしか機能しない。 数ステップで十分です [40 ]
0.75
If an optimization requires more than a few iterative steps, a hybrid quantum-classical algorithm, such as the one proposed in this paper, is a better choice, provided it can handle the classical-quantum-cl assical handoff efficiently. 最適化がいくつかの反復的ステップを必要とする場合、古典量子古典的ハンドオフを効率的に処理できるので、本論文で提案するようなハイブリッド量子古典アルゴリズムの方がよい選択である。 0.73
Sweke et al [41] consider gradient descent used to find the optimal variational quantum state given an objective function that can be expressed as a quantum mechanical observable [27, 29, 42–44]. Sweke et al [41] は、量子力学的観測可能な[27, 29, 42–44]として表現できる目的関数を与えられた最適変動量子状態を見つけるために用いられる勾配降下を考える。 0.81
They show that, if results of measurements of the objective function can provide an unbiased estimate of the gradient, then, given reasonable requirements of continuity and convexity of the objective function, the algorithm will converge similarly to stochastic 対象関数の測定結果が勾配の偏りのない推定値を与えることができれば、目的関数の連続性と凸性の合理的な要件が与えられた場合、アルゴリズムは確率的に収束する。 0.76
英語(論文から抽出)日本語訳スコア
gradient descent, even if only a few measurements are taken at each step. 勾配降下は、各ステップで数回だけ測定されたとしても。 0.71
The quantum natural gradient for VB is one of the best uses of HHL and similarly structured linear systems algorithms, because the initial quantum state is relatively low-dimensional, the inverted matrix is sparse, and noisy readoff of the result is sufficient for theoretical and practical convergence. VBの量子自然勾配は、初期量子状態は比較的低次元であり、逆行列はスパースであり、結果のノイズリフレクションは理論的および実用的な収束に十分であるので、HHLと同様に構造化された線形系アルゴリズムの最適使用の1つである。 0.79
Even the normalization of the quantum natural gradient, which is a byproduct of the efficient qubit encoding, supports the overall efficiency of the algorithm, because it has the effect of gradient clipping – a common (classical) gradient regularization method (see [45], Chapter 8). 効率的な量子ビット符号化の副産物である量子自然勾配の正規化でさえ、勾配クリッピング(英語版)(共通(古典的)勾配正規化法(英語版)([45], Chapter 8))の効果があるため、アルゴリズムの全体的な効率を支えている。 0.79
Clader et al [46] proposed a similarly suitable application of HHL to a scattering cross section problem in physics [47]. Clader et al [46] も同様に HHL を物理学における散乱断面積問題に適用することを提案した[47]。 0.84
The proposed algorithm adds to the growing list of quantum computing applications to solving real-life problems of high practical importance. 提案アルゴリズムは,現実の問題を現実的に重要な問題として解くために,量子コンピューティングアプリケーションのリストを増大させる。 0.72
These applications include, for example, modelling quantum chemistry for development of new materials, medicine, agriculture, and energy ([48–54] and references therein); modeling biological systems [55]; and option pricing [27, 56]. これらの応用には、例えば、新しい材料、医学、農業、エネルギーの開発のための量子化学のモデル化([48–54]とその参照)、生物学系[55]のモデリング、オプション価格[27,56]などがある。 0.83
The rest of the paper is organized as follows. 残りの論文は以下の通り整理される。 0.66
Section II gives an overview of the classical VB method. 第2節は古典的なVB法の概要を示している。 0.60
Section III describes the quantum natural gradient algorithm and the hybrid quantum-classical VB algorithm, together with the convergence and runtime analysis. 第3節では、量子自然勾配アルゴリズムとハイブリッド量子古典型vbアルゴリズム、および収束解析とランタイム解析について記述する。 0.73
Section IV provides numerical examples and Section V concludes. 第4節は数値的な例を示し、第v節は結論づける。 0.42
3 II. CLASSICAL VARIATIONAL BAYES 3 II。 古典的変分ベイズ 0.66
This section gives an overview of VB from the point of view of classical computation, and reviews in detail the regression-based approach of Lopatnikova and Tran [13] for estimating the natural gradient. 本稿では,古典計算の観点からのVBの概要と,自然勾配を推定するための Lopatnikova と Tran [13] の回帰に基づくアプローチの詳細について述べる。 0.81
This regression-based VB approach lends itself naturally to quantum computation, as discussed in Section III. この回帰に基づくVBアプローチは、第3節で議論されたように、自然に量子計算に結びつく。 0.54
A. Variational Bayes with Natural Gradient A. 自然勾配の変分ベイズ 0.81
Let y be the data and L(θ) = p(y|θ) the likelihood function based on a statistical model, with θ the set of model parameters to be estimated. y をデータとし、L(θ) = p(y|θ) を統計モデルに基づく可能性関数とし、θ を推定するモデルのパラメータの集合とする。 0.91
Let p(θ) be the prior. p(θ) を事前とする。 0.68
Bayesian inference encodes all information into the posterior distribution ベイズ推論は全ての情報を後方分布に符号化する 0.65
p(θ|y) = p(θ)L(θ) p(θ|y) = p(θ)L(θ) 0.87
p(y) . The main task in Bayesian inference is to approximate the posterior p(θ|y), and VB does so by approximating it by a probability distribution with density qλ(θ), λ ∈ M - the variational parameter space, belonging to some tractable family of distributions such as Gaussians or neural networks. p(y) . ベイズ推論の主要な仕事は、後 p(θ|y) を近似することであり、vb は、密度 qλ(θ), λ ∈ m - 変分パラメータ空間の確率分布を近似することで、ガウス分布やニューラルネットワークのような可搬分布に属する。 0.81
Denote by N the size of λ. N は λ の大きさに注意する。 0.80
The best λ is found by maximizing the lower bound [3] 最高のλは下界[3]を最大化することによって見つかる 0.84
with L(λ) =Z qλ(θ) log と L(λ) = Z qλ(θ) log 0.80
p(θ)L(θ) qλ(θ) p(θ)L(θ) qλ(θ) 0.92
dθ = Eqλ(cid:0)hλ(θ)(cid:1), dθ = Eqλ(cid:0)hλ(θ)(cid:1) 0.83
(1) (2) (3) (1) (2) (3) 0.85
The Euclidean gradient of the lower bound is [57] 下界のユークリッド勾配は[57]である 0.64
hλ(θ) = log(cid:0)p(θ)L(θ)(cid:1) − log qλ(θ). hλ(θ) = log(cid:0)p(θ)L(θ)(cid:1) − log qλ(θ)。 0.94
∇λL(λ) = Eqλ(cid:0)∇λ log qλ(θ) × hλ(θ)(cid:1). λL(λ) = Eqλ(cid:0) λ log qλ(θ) × hλ(θ)(cid:1)。 0.84
For maximizing the lower bound objective function L(λ), Amari [5] shows that the natural gradient, defined as 下界対象関数 L(λ) を最大化するために、Amari [5] は自然勾配が定義されていることを示す。 0.71
λ L(λ) := I−1 ∇nat λ L(λ) := I−1 シュナット 0.86
F (λ)∇λL(λ), f (λ) λl(λ) である。 0.80
(4) (4) 0.85
英語(論文から抽出)日本語訳スコア
where 4 (5) IF (λ) := Covqλ(cid:0)∇λ log qλ(θ),∇λ log qλ(θ)(cid:1) どこに 4 (5) IF (λ) := Covqλ(cid:0) λ log qλ(θ) λ log qλ(θ)(cid:1) 0.83
is the Fisher information matrix of qλ, works much more efficiently than the Euclidean gradient. qλ のフィッシャー情報行列であり、ユークリッド勾配よりもはるかに効率的に機能する。 0.65
The reason is that the natural gradient takes into account the geometry of the variational family {qλ, λ ∈ M} in the optimization. 理由は、自然勾配が最適化における変分族 {qλ, λ ∈ m} の幾何学を考慮に入れるからである。 0.73
Natural gradient has been proven vital to the success of VB; see, e g , Refs. VBの成功には自然勾配が不可欠であることが証明されている。 0.55
[1, 6] among others. λ L(λ) be a unbiased estimate of the natural gradient ∇nat 1、6)などです λ L(λ) は自然勾配の非バイアス付き推定である 0.58
λ L(λ). λ l(λ) である。 0.82
The classical VB algorithm is as 古典的なVBアルゴリズムは 0.71
Let \∇nat follows: としよう。 以下の通りです 0.43
Algorithm 1 (VB Algorithm with Natural Gradient). アルゴリズム1(VB Algorithm with Natural Gradient)。 0.74
• Initialize λ0 and momentum gradient Y0. • λ0 と運動量勾配 Y0 を初期化する。 0.63
Stop the following iteration if the stopping criterion is met. 止まれ 停止基準が満たされた場合の次のイテレーション。 0.67
• For t = 0, 1, ... • t = 0, 1, ... 0.90
– Estimate the natural gradient \∇nat -自然勾配を推定する。 0.74
– Update the momentum gradient λ L(λt) and apply gradient clipping. -運動量勾配を更新 λ L(λt) および勾配クリッピングを適用する。 0.81
– Update the variational parameter - 変数パラメータを更新 0.74
Yt+1 = ωYt + (1 − ω)\∇nat Yt+1 = ωYt + (1 − ω)\\nat 0.86
λ L(λt). λ (複数形 λs) 0.75
λt+1 = λt + αtYt+1. λt+1 = λt + αtYt+1。 0.58
(6) We have incorporated the momentum method, which has been found highly useful in practice, into the algorithm above with ω ∈ (0, 1) the momentum weight. (6) 我々は, 運動量重みを ω ∈ (0, 1) とするアルゴリズムに, 実用上非常に有用であることが判明した運動量法を組み込んだ。 0.83
In the current practice of VB algorithms, gradient clipping that normalizes the length of \∇nat λ L(λt) is often used [45]. vbアルゴリズムの現在の実践では、\\nat λ l(λt)の長さを正規化する勾配クリッピングがしばしば使われる [45]。 0.84
This normalization is automatically incorporated into our quantum natural gradient because of the unit norm requirement of quantum states. この正規化は、量子状態の単位ノルム要求のため、我々の量子自然勾配に自動的に組み込まれる。 0.75
The learning rates αt are required to satisfy: 1 ≥ αt ↓ 0, P αt = ∞ and P α2 t < ∞. 学習速度 αt は 1 ≥ αt > 0, P αt = ∞, P α2 t < ∞ を満たす必要がある。 0.82
We refer the interested The main computational bottleneck in Variational Bayes is computing the gradient estimate \∇nat 変分ベイズにおける主な計算ボトルネックは、勾配推定値 \\nat を計算することである。 0.58
Our hybrid quantum-classical VB algorithm is developed to overcome this problem. この問題を解決するために,我々のハイブリッド量子古典型VBアルゴリズムを開発した。 0.58
reader to Ref. 読者はRefを参照。 0.60
[57] for more details. [57] 詳しくは。 0.60
λ L(λ). λ l(λ) である。 0.82
B. Estimating Natural Gradient with Regression b.回帰による自然勾配の推定 0.72
It is well-known that there are several difficulties in using natural gradient. 自然勾配の使用にはいくつかの困難が伴うことが知られている。 0.64
It is difficult to compute the Fisher matrix let alone its inverse. フィッシャー行列の逆数のみを計算することは困難である。 0.64
Even if one could compute the Fisher matrix analytically, solving the equation in (4) is computationally infeasible in high dimensions. フィッシャー行列を解析的に計算できたとしても、(4) で方程式を解くことは高次元では計算不可能である。
訳抜け防止モード: たとえフィッシャー行列を解析的に計算できたとしても 4)で方程式を解く 高次元では計算不可能である。
0.74
These difficulties were overcome to some extent in a recent work of Lopatnikova and Tran [13] who propose a regression-based approach for estimating the natural gradient. これらの困難は、自然勾配を推定するための回帰に基づくアプローチを提案するLopatnikova と Tran [13] の最近の研究である程度克服された。 0.74
We now present this approach in some detail. このアプローチをもう少し詳しく説明します。 0.60
Let’s denote T (θ) = ∇λ log qλ(θ), often called the score function. しばしばスコア関数 ( score function) と呼ばれる T (θ) = シュλ log qλ(θ) と表す。 0.85
By noting that Eqλ (T (θ)) = 0, the Eqλ (T (θ)) = 0 であることに注意すること。 0.80
Euclidean gradient of the lower bound in (3) and the Fisher matrix in (5) can be rewritten as (3)における下界のユークリッド勾配と(5)におけるフィッシャー行列は書き換えることができる 0.75
Hence, the natural gradient can be written as したがって、自然勾配は次のように書くことができる。 0.58
∇λL(λ) = covqλ(cid:0)T (θ), hλ(θ)(cid:1), and IF (λ) = covqλ(cid:0)T (θ), T (θ)(cid:1). λL(λ) = covqλ(cid:0)T (θ), hλ(θ)(cid:1), IF (λ) = covqλ(cid:0)T (θ), T (θ)(cid:1) である。 0.89
covqλ(cid:0)T (θ), hλ(θ)(cid:1). covqλ(cid:0)T (θ), hλ(θ)(cid:1)。 0.82
F (λ)∇λL(λ) =(cid:2)covqλ (T (θ), T (θ))(cid:3)−1 f (λ) λl(λ) =(cid:2)covqλ (t (θ), t (θ))(cid:3)−1 0.93
λ L(λ) = I−1 ∇nat λ L(λ) = I−1 シュナット 0.82
(7) (8) Inspired by Salimans and Knowles [11] and Malago et al [12], Lopatnikova and Tran [13] show that the natural gradient in the form of (8) can be interpreted as the slope of regression of the dependent variable hλ(θ) on the vector of independent variables T (θ). (7) (8) Salimans, Knowles [11] と Malago et al [12] にインスパイアされた Lopatnikova と Tran [13] は (8) の形の自然な勾配を、独立変数 T (θ) のベクトル上の従属変数 hλ(θ) の回帰の勾配として解釈できることを示した。 0.84
More precisely, let {θi}M i=1 be M samples from qλ(θ), and T be the design matrix whose row vectors are T (θi)⊤ and h be the response vector of hλ(θi). より正確には、 {θi}Mi=1 を qλ(θ) から M 個のサンプルとし、T を行ベクトルが T (θi) で h を hλ(θi) の応答ベクトルとする設計行列とする。 0.85
Lopatnikova and Tran [13] show that the ordinary least squares estimate of the regression slope, lopatnikova と tran [13] は回帰勾配の最小二乗推定値を示した。 0.64
g = (T †T )−1T †h, g = (T >T )−1T >h, 0.79
(9) (9) 0.85
英語(論文から抽出)日本語訳スコア
is an unbiased estimate of the natural gradient, i.e. 自然勾配の偏りのない推定値です 0.53
E(g) = ∇nat conjugate transpose (which, for the real matrix T , is simply the transpose). E(g) = シュナット共役変換(これは実行列 T に対して単に変換である)。 0.55
λ L(λ). λ l(λ) である。 0.82
Here, the dagger represents the This regression-based approach for estimating the natural gradient provides an unbiased estimate while being able to avoid the requirement to compute the Fisher matrix IF analytically. ここでは、この回帰に基づく自然な勾配を推定するアプローチは、フィッシャー行列 IF を解析的に計算する要求を回避しながら、偏りのない見積もりを与える。 0.74
However, computing g as in (9) is still computationally expensive, especially in high dimensional settings with large N . しかしながら、 (9) における g の計算は、特に N の大きい高次元設定では、まだ計算コストが高い。 0.75
As we show in the next section, we are able to leverage the ability of quantum computers to invert matrices efficiently in order to estimate the natural gradient using (9). 次の節で示すように、(9)を用いて自然勾配を推定するために、量子コンピュータが行列を効率よく反転させる能力を活用することができる。 0.77
5 III. QUANTUM SPEEDUP OF VARIATIONAL BAYES 5 III。 変量ベイの定量化 0.66
This section proposes a way to leverage quantum computation to speed up Variational Bayes using a quantum natural gradient. 本節では、量子自然勾配を用いて変動ベイズを高速化するために量子計算を利用する方法を提案する。
訳抜け防止モード: この節では 量子自然勾配を用いて変動ベイズを高速化するために量子計算を利用する。
0.81
We start by further re-framing the natural gradient as a linear problem using singular value decomposition. まず、特異値分解を用いて自然勾配を線形問題として再フレーミングする。 0.66
We then leverage matrix inversion from the quantum algorithm for linear systems of equations [10] to create a quantum state that corresponds to the computationally expensive part of the natural gradient g. Next, we demonstrate that the information in the quantum state can be transferred efficiently to the classical computer. 次に、方程式[10]の線形系に対する量子アルゴリズムからの行列反転を利用して、自然勾配の計算的に高価な部分に対応する量子状態を生成する。
訳抜け防止モード: 次に,方程式の線形系 [10 ] に対して,量子アルゴリズムからの行列反転を利用して量子状態を生成する。 自然勾配 g の計算コストの高い部分に対応する。 量子状態の情報を古典的コンピュータに効率的に転送できることを実証する。
0.88
A. Singular Value Decomposition We can express the matrix T , of the size M × N , in terms of its singular value decomposition (SVD): A.特異値分解 行列 t は、その特異値分解(svd: singular value decomposition)の観点から m × n の大きさを表すことができる。 0.78
Tij = SXs=1 Tij = SXs=1 0.72
τsvisujs, (10) τsvisujs (10) 0.70
where uis and vjs are elements of the right (us) and left (vs) eigenvectors of T that correspond to the singular value τs; S ≤ min{M, N} is the rank of T . ui と vjs は t の右 (us) と左 (vs) の固有ベクトルの元で、特異値 τs に対応する; s ≤ min{m, n} は t のランクである。 0.74
The right eigenvectors of T are also the eigenvectors of T †T (and left eigenvectors of T are eigenvectors of T T †), with corresponding singular values τ 2 s . T の右固有ベクトルも T の固有ベクトルであり(T の左固有ベクトルも T の固有ベクトルである)、対応する特異値 τ 2 s を持つ。 0.74
With eigenvalues τs arranged as a S × S diagonal matrix T , we have: 固有値 τs を S × S の対角行列 T として配置すると、次のようになる。
訳抜け防止モード: 固有値τsをS×S対角行列Tとして配置する。 我々は
0.73
T † = UT V † UT V = UT V = UT V。 0.32
(T †T )−1T † = UT −1V †, (t ,t )−1t , = ut −1v ,, 0.62
(11) (12) where V is an M × S matrix (so that V † is an S × M matrix) and U is an N × S matrix, comprising the left and right eigenvectors of T respectively. (11) (12) V を M × S 行列(V を S × M 行列とする)とし、U を N × S 行列とし、それぞれ T の左固有ベクトルと右固有ベクトルからなる。 0.82
The estimate g in (9) takes the form: 9) における推定 g は次の形を取る。 0.66
which can be written in terms of matrix elements as: 行列要素を次のように書くことができます 0.74
g = UT −1V †h, g = UT −1V 0.82
gi = SXs=1 MXj=1 gi= SXs=1 MXj=1 0.67
1 τs uis(v†)sjhj = 1τs uis(v)sjhj = 0.77
SXs=1 MXj=1 SXs=1 MXj=1 0.59
1 τs uisvjshj. 1τs uisvjshj。 0.75
(13) (14) If the condition number κ = max(τs)/ min(τs) of matrix T is very large, accuracy can improve if the pseudoinverse is regularized or truncated. (13) (14) 行列 T の条件数 κ = max(τs)/ min(τs) が非常に大きい場合、擬逆数が正則化される場合、精度が向上する。 0.83
A common way to regularize the pseudoinverse is Tikhonov regularization, where 1 s +c2 , where c (such that min τs < c < max τs) filters out τ 2 τs smallest values of τs. 擬逆の正則化の一般的な方法は、チコノフ正則化であり、1 s + c2 であり、c (min τs < c < max τs) は τ 2 τs の最小値 τs をフィルタリングする。 0.77
An alternative method is truncation, where the subspace associated with the smallest singular values τs is cut off. 別の方法として、最小特異値 τs に付随する部分空間を切断するトランケーションがある。 0.75
in Eq (14) is replaced by Eq (14) で置き換えられる 0.67
τs The quantum state |gi representing g in amplitude encoding will take the form: τs g を振幅エンコーディングで表現する量子状態 |gi は次の形を取る。 0.77
|gi = 1 kgk NXi=1 |gi = 1kg NXi=1 0.72
MXj=1 SXs=1 MXj=1 SXs=1 0.59
1 τs uisvjshj |ii . 1τs uisvjshj |ii。 0.74
(15) (15) 0.85
英語(論文から抽出)日本語訳スコア
where kgk is the ℓ2-norm of g. kgk は g の l2-ノルムである。 0.68
6 B. Natural Gradient Quantum State 6 B。 自然勾配量子状態 0.79
Our quantum algorithm performs an estimation of the state |gi in Eq (15) with efficient use of a quantum computer. 量子アルゴリズムは、eq (15) における状態 |gi を量子コンピュータを効率的に利用して推定する。 0.90
To start, we initialize a quantum register of n = ceil(log N ) qubits and an auxiliary qubit. まず、n = ceil(log N ) qubits の量子レジスタと補助量子ビットを初期化する。 0.69
In the register, we create the state |hi that encodes the M × 1 vector h in the amplitudes of a set of basis states. レジスタでは、基底状態の集合の振幅で m × 1 のベクトル h を符号化する状態 |hi を生成する。 0.72
The amplitude encoding is qubit-efficient because it allows h to be encoded on log M qubits, which is not very computationally demanding, because M ≪ N . 振幅符号化は、h が対数 M の量子ビット上でエンコードされるので qubit-efficient である。
訳抜け防止モード: 振幅符号化は qubit であり、これは h を log M のqubit にエンコードできるためである。 M は N であるため、計算的にはあまり要求されない。
0.67
We assume that we have an oracle Y that, given an M × 1 vector h creates a quantum state of the form 我々は、M × 1 ベクトル h が与えられたときにその形の量子状態を生成するオラクル Y を仮定する。 0.83
Y |~0in = |hi = Y |~0in = |hi = 0.71
1 khk MXj=1 1khk MXj=1 0.62
hj |ji , (16) hj |ji , (16) 0.90
where |~0in represents the n-qubit register with all qubits in the ground state 0, |ji represent states encoded on these qubits in computational basis, and khk is the ℓ2-norm of h. |~0in は基底状態 0 の n-量子ビットレジスタを表し、|ji はこれらの量子ビットで符号化された状態を表し、khk は h の l2-ノルムである。 0.66
We adopt the HHL algorithm [10] to extract and invert the singular values of the matrix T and obtain 我々はHHLアルゴリズム[10]を採用して行列Tの特異値を抽出・反転し、取得する。 0.72
the outcome state |gi in Eq (15). 結果状態 |gi in eq (15)。 0.71
To extract the singular values of the matrix T and invert them, we create a unitary operator eiAt, where t is a real-valued constant (representing time in a Hamiltonian simulation) and the Hermitian operator A = IT † is a “hermitized” version of the non-Hermitian operator T †: 行列 T の特異値を抽出してそれを反転するために、単位作用素 eiAt を作成し、t は実数値定数(ハミルトンシミュレーションにおける時間を表す)であり、エルミート作用素 A = IT は非エルミート作用素 T の「エルミート化」バージョンである。 0.67
T 0 (cid:21) . T0 (cid:21)。 0.75
A = IT † =(cid:20) 0 T † A = IT > = (cid:20) 0 T > 0.76
(17) The operator I is the isometry superoperator (see, e g [20]). (17) 作用素 I は等長超作用素(例: e g [20])である。 0.68
The operator eiAt has the same eigenvectors ap, p = 1, .., N + M as the matrix A, and its eigenvalues are eiαpt, where αp are eigenvalues of matrix A corresponding to eigenvectors ap. 作用素 eiAt は行列 A と同じ固有ベクトル ap, p = 1, .., N + M を持ち、その固有値は eiαpt であり、ここで αp は固有ベクトル ap に対応する行列 A の固有値である。 0.68
The eigenvectors ap and eigenvalues αp of the Hermitian matrix A are closely related to right and left eigenvectors and singular values of matrix T †, us, vs, and τs, respectively. エルミート行列 A の固有ベクトル ap と固有値 αp はそれぞれ、左右固有ベクトルと行列 T , us, vs, τs の特異値と密接に関係している。 0.69
Following HHL [10], we append an i=1 uis |ii and |vsi = PM auxiliary qubit and define |a±s i = 1√2 j=1 vjs |ji, s = 1, .., S. The operator A takes the from A = |0ih1|PS s=1 τs |vsihus|, with eigenvalues α±s = ±τs corresponding to eigenstates |a±s i. HHL [10] に従えば、i=1 uis |ii と |vsi = PM の補助量子ビットを加えて |a±s i = 1\2 j=1 vjs |ji, s = 1, ., S. 作用素 A は A = |0ih1|PS s=1 τs |vsihus| から成り、固有値 α±s = ±τs は固有状態 |a±s i に対応する。 0.65
If S < (N +M )/2, A has N +M −2S zero eigenvalues, corresponding to the basis states of the orthonormal complement to the 2S-dimensional Hilbert space spanned by |a±s i. S < (N +M )/2 の場合、A は N + M − 2S の固有値を持ち、これは |a±s i で表される 2S-次元ヒルベルト空間の直交補空間の基底状態に対応する。
訳抜け防止モード: S < ( N + M ) /2 であれば、A は N + M − 2S ゼロ固有値を持つ。 2S-次元ヒルベルト空間の正規直交補空間の基底状態に対応する。
0.76
We follow the HHL algorithm, with a small modification. 我々は小さな修正を加えてHHLアルゴリズムに従う。 0.69
As in HHL, we append an auxiliary qubit to state |hi, but instead of keeping it in the ground state |0i as was done by Harrow, Hassidim, and Lloyd [10], we initialize the auxiliary to |1i. HHLと同様に、補助量子ビットを状態 |hi に付加するが、Harrow, Hassidim, Lloyd [10] が行ったような基底状態 |0i に保持するのではなく、補助ビットを |1i に初期化する。 0.68
This choice yields the state: この選択は州に与えます 0.65
(|0i|usi ± |1i|vsi), where |usi = PN s=1 τs |usihvs| + |1ih0|PS (|0i|usi ± |1i|vsi) ここで |usi = PN s=1 τs |usihvs| + |1ih0|PS 0.53
|1i|hi = |1i |1i|hi = |1i 0.47
1 khk MXj=1 1khk MXj=1 0.62
hj |ji = |1i hj |ji = |1i 0.74
1 khk MXj=1 1khk MXj=1 0.62
SXs=1 hj |vsihvs|ji = |1i SXs=1 hj |vsihvs|ji = |1i 0.59
1 khk MXj=1 1khk MXj=1 0.62
SXs=1 hjvjs |vsi . SXs=1 hjvjs |vsi 。 0.71
(18) (18) 0.85
英語(論文から抽出)日本語訳スコア
The HHL inversion algorithm then results in a state that we recognize as |gi from Eq (15): HHL逆アルゴリズムは、Eq (15) から |gi と認識される状態となる。 0.71
τ−1 s |usihvs| + |1ih0| τ−1 s |usihvs| + |1ih0| 0.59
SXs=1 τ−1 s SXs=1 τ−1 s 0.65
|vsihus|(cid:1)|1i |vsihus|(cid:1)|1i 0.59
1 khk MXj=1 1khk MXj=1 0.62
SXs′=1 hjvjs′ |vs′i SXs'=1 hjvjs' |vs′i 0.49
A−1 |1i|hi → SXs=1 → C(cid:0)|0ih1| MXj=1 SXs=1 khk |0i MXj=1 NXi=1 A−1 |1i|hi → SXs=1 → C(cid:0)|0ih1| MXj=1 SXs=1 khk |0i MXj=1 NXi=1 0.49
khk |0i = C khk |0i = C 0.80
C = τ−1 s hjvjs |usi SXs=1 C = τ−1 s hjvjs |usi SXs=1 0.78
τ−1 s hjvjsuis |ii = |0i|gi , τ−1 s hjvjsuis |ii = |0i|gi , 0.63
7 (19) where C is a normalization constant arising in the implementation of the HLL algorithm, such that C = khk/kgk. 7 (19) ここで C は HLL アルゴリズムの実装で生じる正規化定数であり、C = khk/kgk である。 0.84
Since our algorithm follows HHL very closely and detailed descriptions are available in the original work [10] and other sources, e g [58], we refer the reader to these sources for an in-depth step-by-step discussion of algorithm implementation. 本アルゴリズムはhhlに非常に密接に従っており,原著 [10] や他の情報源,例えば [58] で詳細な説明が得られているため,アルゴリズムの実装に関する詳細な議論では,これらの情報源を参照する。 0.65
As discussed in more detail in Section III E, the computational complexity of the HHL algorithm and, consequently, of its modified version proposed in this section depends quadratically on the condition number of matrix A. 第III節Eでより詳細に議論されているように、HHLアルゴリズムの計算複雑性と、この節で提案された修正版は、行列 A の条件数に大きく依存する。 0.75
For ill-condition matrices, inversion can become computationally taxing. 条件の悪い行列の場合、反転は計算的に課税される。 0.52
HHL [10] overcome this problem by means similar to those used in classical algorithms. hhl[10]は、古典的なアルゴリズムで使われるものと似た方法でこの問題を克服する。 0.66
They apply regularization procedures for ill-conditioned matrices. 非条件行列に対して正規化手順を適用する。 0.45
During the singular-value inversion step, the algorithm can avoid inverting the singular values below a threshold τmin. 特異値反転ステップの間、アルゴリズムは閾値τmin以下の特異値の反転を避けることができる。 0.75
The subspaces associated with these values can be either (effectively) discarded or labelled as ill-conditioned and retained for further analysis. これらの値に関連する部分空間は(効果的に)破棄されるか、あるいは不条件としてラベル付けされ、さらなる解析のために保持される。 0.53
C. Unbiased Estimator of the Natural Gradient C. 自然勾配の無バイアス推定器 0.82
kgkPN This section presents a method for obtaining an unbiased estimator of the natural gradient from the quantum sate |gi = 1 i=1 gi |ii. kgkPN 本節では、量子セート |gi = 1 i=1 gi |ii から自然勾配の偏りのない推定子を得る方法を提案する。 0.78
More sophisticated methods, e g based on compressed sensing exist (see, e g , [20] and references therein); nevertheless, for our purposes, it is sufficient to work with a simple method. より洗練された方法、例えば圧縮センシングに基づく方法(例えば、[20]と参照を参照)は存在するが、我々の目的のためには、単純な方法で作業するには十分である。 0.79
To streamline notation and without loss of generality, in this section we assume that g is normalized to 1, kgk = 1. 表記法を合理化し、一般性を失うことなく、この節では g が 1 kgk = 1 に正規化されていると仮定する。
訳抜け防止モード: 表記を合理化し、一般性を損なうことなく行う。 この節では g は 1, kgk = 1 に正規化される。
0.77
To estimate the natural gradient coordinates gi, the quantum state |gi can be measured repeatedly in the computational basis (the basis of states |ii). 自然勾配座標 gi を推定するために、量子状態 |gi は計算ベース(状態 |ii の基底)で繰り返し測定することができる。 0.84
By Born rule, the probability that the result of the measurement is |ii is |gi|2. ボルン則により、測定結果が |ii である確率は |gi|2 である。 0.78
Therefore, given a sufficient number of measurements, we can estimate |gi|2 based on the relative frequency of the outcome |ii within the set of taken measurements. したがって、十分な数の測定値があれば、測定値の集合内の結果 |ii の相対周波数に基づいて |gi|2 を推定できる。 0.69
This property of direct measurement in the computational basis delivers an important advantage – the most important gradient directions will yield measurements with highest probability. この計算基底における直接測定の性質は重要な利点をもたらし、最も重要な勾配方向は最も高い確率で測定される。 0.84
But it also comes with an serious disadvantage – the loss of critical sign information. しかし、重要なサイン情報を失うという深刻な欠点も伴っている。 0.63
In order to overcome this issue, we introduce positive and negative “noise,” in the form of a uniform state |γi ≡ 1√N PN i=1 |ii. この問題を克服するために、正および負の「ノイズ」を導入し、一様状態 |γi > 1 = N PN i=1 |ii とする。 0.68
At the beginning of the quantum computation, we pull in an additional auxiliary qubit and apply a Hadamard gate to create two computational branches. 量子計算の開始時に補助量子ビットを加算し、アダマールゲートを適用して2つの計算分岐を生成する。 0.74
In the computational branch of the auxiliary qubit in state |0i we run the algorithm described in Section III B to create the state |gi (to streamline notation, we omit the auxiliary qubit used to assist in the computation of |gi); in the |1i-branch we create the state |γi: 状態 |0i における補助量子ビットの計算ブランチでは、セクション III B で記述されたアルゴリズムを実行して状態 |gi を生成する(合理化表記法では、 |gi の計算を助けるのに使用される補助量子ビットを省略する)。 0.80
1 √2 |0i|gi + 1~2 |0i|gi + 0.46
1 √2 |1i|γi , 1 , 2 | 1i|γi , 0.41
(20) which is equivalent to (20) これに匹敵するものです 0.60
1 2 NXi=1 (gi + 1 2 NXi=1 (gi+) 0.78
1 √N )|+i|ii + 1回。 )|+i|ii + 0.51
1 2 NXi=1 (gi − 1 2 NXi=1(gi −) 0.78
1 √N )|−i|ii , 1回。 )|−i|ii。 0.47
英語(論文から抽出)日本語訳スコア
where |±i represent Hadamard basis states of the auxiliary qubit. ここで |±i は補助量子ビットのアダマール基底状態を表す。 0.43
Simultaneous measurements of the n-qubit register holding the superposition of |gi and |γi and the auxiliary register yield results that comprise an unbiased estimator of gi. |gi と |γi の重ね合わせを持つ n-qubit レジスタの同時測定と、gi の非バイアス推定器を構成する補助レジスタ収率の同時測定である。
訳抜け防止モード: |gi と |γi の重ね合わせを持つ n - qubit レジスタの同時測定 そして GIの未偏差推定器を構成する 補助レジスタの収率
0.76
We measure the n-qubit register in the computational basis and the auxiliary qubit in the Hadamard basis. そこで,n-qubitレジスタを計算ベースで測定し,補助量子ビットをアダマールベースで測定した。 0.61
The probability of measuring the |±i state in the auxiliary qubit and |ii in the n-qubit register is |gi ± 1√N |2/4. 補助量子ビットの |±i 状態と n-量子ビットレジスタの |ii を計測する確率は |gi ± 1/n |2/4 である。 0.62
Let n±i be the number of measurements of the n-qubit register that yield the state |ii when the measurement of the auxiliary qubit yields |±i, and nT = PN i + n−i ) be the total number of measurements taken. n±i を、補助量子ビットの測定が |±i, nT = PN i + n−i ) のときに状態 |ii をもたらす n-量子レジスタの測定数とする。
訳抜け防止モード: n±i を、補助量子ビットの測定が |±i となるとき、状態 |ii をもたらす n - qubit レジスタの測定数とする。 そして、nT = PN i + n−i ) は測定総数である。
0.79
Let Em indicate expectation over measurement results. Emは測定結果に対する期待を示す。 0.80
Then, i=1(n+ そしたら i=1(n+) 0.59
8 Em[n+ i − n−i ] = nT(cid:16)|gi + 1/√N|2 8 Em[n+] i − n−i ] = nT(cid:16)|gi + 1/n|2 0.80
4 − |gi − 1/√N|2 4 − |gi − 1/\n|2 0.70
4 (cid:17) = nT 4 (cid:17) = nT 0.87
gi√N , which implies that measurement results yield an unbiased estimator of gi: ギシュン , これは測定結果が GIの偏りのない推定値になることを意味します 0.58
(21) (22) bgi = √N (21) (22) bgi (複数形 bgis) 0.64
i − n−i n+ nT i − n−i n+ nT 0.78
, Em[bgi] = gi. , Em[bgi] = gi。 0.81
Lemma 1. We denote by bg = (bg1, ...,bgN )⊤ the quantum natural gradient which is a classical vector. レマ1号。 bg = (bg1, ...,bgN ) = 古典的ベクトルである量子自然勾配を表す。 0.59
The following lemma summarizes the two important properties of the quantum natural gradient bg: (ii) If the classical natural gradient is bounded, i.e. 次の補題は、量子自然勾配 bg の2つの重要な性質を要約する: (ii) 古典的自然勾配が有界であれば、すなわち。 0.77
V(gi) < ∞ for all i, then V(bgi) < ∞ for all i. すべての i に対して v(gi) < ∞ であれば v(bgi) < ∞ となる。 0.87
Proof of Lemma 1. Lemma 1の証明。 0.65
The proof of part (i) is obvious from (22). 部分 (i) の証明は (22) から明らかである。 0.77
For part (ii), we have that the variance of bgi 部分 (ii) には、bgi のばらつきがある。 0.59
(i) The quantum natural gradient is unbiased, i.e., E(bg) = ∇nat λ L. (i) 量子自然勾配は非バイアス、すなわち E(bg) = シュナットλ L である。 0.77
with respect to the measurements, conditional on the drawn samples θ1, ..., θM , is 測定について、描画されたサンプル θ1, ..., θM の条件は、 0.73
Because of the constraint Pi g2 Pi g2 の制約のため 0.83
i = 1, E(g2 i = 1, E(g2) 0.91
Also, By the law of total variance, また 完全な分散の法則によって 0.56
Vm(bgi|θ1, ..., θM ) ≤ Vm(bgi|θ1, ..., θM ) ≤ 0.90
= 2N n2 N T (cid:0)V(n+ nT(cid:16)(1 − (1 − = 2N n2 N T (cid:0)V(n+ nT(cid:16)(1 − (1 −) 0.84
i ) + V(n−i )(cid:1) i(cid:17) )g2 i − g4 )g2 i . i) + V(n−i )(cid:1) i(cid:17) )g2 i − g4 )g2 i である。 0.78
6 N 6 N ≤ N nT i ) < ∞, hence, E(Vm(bgi|θ1, ..., θM )) < ∞. 6 N 6 N ≤ NnT i ) < ∞ なので、E(Vm(bgi|θ1, ..., θM )) < ∞ である。 0.87
V(cid:0)Em(bgi|θ1, ..., θM )(cid:1) = V(cid:0)gi(cid:1) < ∞. V(cid:0)Em(bgi|θ1, ..., θM )(cid:1) = V(cid:0)gi(cid:1) < ∞。 0.83
V(bgi) = V(cid:0)Em(bgi|θ1, ..., θM )(cid:1) + E(Vm(bgi|θ1, ..., θM )) < ∞. V(bgi) = V(cid:0)Em(bgi|θ1, ..., θM )(cid:1) + E(Vm(bgi|θ1, ..., θM )) < ∞。 0.92
We now summarize our quantum algorithm for estimating the natural gradient in Algorithm 2. 本稿では,アルゴリズム2における自然勾配推定のための量子アルゴリズムを概説する。 0.75
Algorithm 2 (Quantum Natural Gradient). アルゴリズム2(Quantum Natural Gradient)。 0.73
1. Initialize an n-qubit register and an auxiliary qubit. 1. n-qubitレジスタと補助qubitを初期化する。 0.78
The n-qubit register will hold the initial data and the desired state |gi with n = ceil(log N ). n-qubitレジスタは、初期データと所望の状態 |gi を n = ceil(log n ) で保持する。 0.87
The auxiliary qubit will assist with the computation. 補助量子ビットは計算を補助する。 0.59
2. Put one of the auxiliary qubits in the state |0i+|1i√2 • Using controlled-Hadamard gate controlled on the auxiliary qubit, create a uniform state |γi in the 2. 補助量子ビットの1つを状態 |0i+|1i\2 に配置する • 補助量子ビットで制御される制御アダマールゲートを用いて、一様状態 |γi を生成する。
訳抜け防止モード: 2. 補助量子ビットの1つを状態 |0i+|1i\2 • 制御-補助量子ビットで制御されるアダマールゲート 統一状態 |γi を
0.74
n-qubit register in the |1i-branch. n-qubit register in the |1i-branch 0.65
The computation of g will proceed in the |0i-branch. g の計算は |0i-ブランチで進行する。 0.64
. 3. In the |0i-branch, prepare the state |gi as in Section III B. . 3. 0i-ブランチでは、第III節Bのように状態 |gi を準備する。 0.74
Additional auxiliary registers and qubits are 追加の補助レジスタとqubitsは 0.90
appended as needed in this step. このステップで必要に応じて追加します 0.65
英語(論文から抽出)日本語訳スコア
9 4. Measure the n-qubit register in the computational basis and the auxilliary qubit in the Hadamard basis. 9 4. n-qubitレジスタを計算基底で測定し、補助キュービットをアダマール基底で測定する。 0.77
5. Repeat Steps 1-4 nT times to construct the unbiased estimate bg as in (22). 5. ステップ1-4 ntを繰り返すと(22)、偏りのない推定bgが構築される。 0.74
Technically, this algorithm results in a unbiased estimator of the normalized natural gradient, i.e. 技術的には、このアルゴリズムは正規化自然勾配の偏りのない推定器となる。 0.75
g/kgk, because of the unit norm requirement of quantum states in quantum computation. g/kgk 量子計算における量子状態の単位ノルム要件のためである。 0.85
This makes quantum natural gradient suit naturally to gradient clipping - a method used in stochastic gradient descent that clips off the length of the gradient vector to help stablize the optimization [45]. これにより、量子自然勾配は、勾配クリッピングに自然に適合する - 勾配ベクトルの長さをカットして最適化を安定化する確率的勾配降下法 [45] で用いられる。 0.80
D. Hybrid Quantum-Classical VB algorithm D.ハイブリッド量子古典VBアルゴリズム 0.75
Our hybrid Quantum-Classical VB algorithm is summarized in the following algorithm. 我々のハイブリッド量子古典VBアルゴリズムは以下のアルゴリズムで要約する。 0.81
Algorithm 3 (VB with Quantum Natural Gradient). アルゴリズム3(vbは量子自然勾配を持つ)。 0.74
On a classical computer: 古典的コンピュータ上では 0.76
• Initialize λ0, momentum gradient Y0, and stop the following iteration if the stopping criterion is met. • λ0, 運動量勾配 Y0 を初期化し、停止基準が満たされれば次の繰り返しを止める。 0.78
• For t = 0, 1, ... • t = 0, 1, ... 0.90
– Generate θj ∼ qλ(t) (θ), j = 1, ..., M , and form the matrix T and vector h. – Repeat Algorithm 2 on a quantum computer to obtain the natural gradient estimate bgt. – θj > qλ(t) (θ), j = 1, ..., M を生成して行列 T とベクトル h を生成する。
訳抜け防止モード: - θj > qλ(t ) ( θ ), j = 1 を生成する。 ..., M, and form the matrix T and vector h. – Repeat Algorithm 2 on a quantum computer 自然勾配推定bgtを得るためです
0.84
– Update the momentum gradient – Update the variational parameter -運動量勾配を更新 - 変数パラメータを更新 0.77
Yt+1 = ωYt + (1 − ω)bgt. Yt+1 = ωYt + (1 − ω)bgt。 0.92
λt+1 = λt + αtYt+1. λt+1 = λt + αtYt+1。 0.58
(23) E. Convergence and Runtime Analysis (23) E.収束と実行解析 0.86
Guaranteed convergence under standard assumptions 標準仮定に基づく保証収束 0.86
We now provide a theoretical analysis of the convergence of the hybrid quantum-classical VB algorithm 現在、ハイブリッド量子古典VBアルゴリズムの収束に関する理論的解析を行っている。 0.77
in Section III D. Let us denote ˜L(λ) := −L(λ), the VB optimization problem is 第III節 D では、VB の最適化問題は >L(λ) := −L(λ) と表す。 0.80
min λ ˜L(λ). ミン λ λ(λ) である。 0.67
For a symmetric and positive definite matrix Σ, we denote by σmax(Σ), σmin(Σ) the largest and smallest eigenvalue of Σ, and by k · k the ℓ2-norm. 対称かつ正の定値行列 Σ に対して、σmax(Σ) と σmin(Σ) は Σ の最大かつ最小の固有値であり、k · k は l2-ノルムである。 0.80
Theorem 1. Assume that the following regularity conditions are satisfied in a neighborhood N of λ: (A1) The quantum natural gradient bg =bg(λ) is unbiased with bounded variance. 理論1。 次の正則性条件が λ: (A1) の近傍 N で満たされると仮定する: 量子自然勾配 bg = bg(λ) は有界分散に偏らない。 0.70
(A2) The ordinary gradient is bounded, i.e., k∇ ˜L(λ)k ≤ b1 < ∞. (A2) 通常の勾配は有界であり、すなわち k は λ(λ)k ≤ b1 < ∞ である。 0.80
(A3) 0 < b2 ≤ σmin(IF (λ)) ≤ σmax(IF (λ)) ≤ b3 < ∞. (A3) 0 < b2 ≤ σmin(IF (λ)) ≤ σmax(IF (λ)) ≤ b3 < ∞。 0.98
Let {λt, t = 0, 1, ...} be the iterates generated from Algorithm 3. λt, t = 0, 1, ...} をアルゴリズム3から生成される反復集合とする。 0.80
Then, if λ0 ∈ N , すると λ0 ∈ N となる。 0.78
min t=1,...,n ミン t=1,...,n 0.67
Ek∇ ˜L(λt)k → 0, n → ∞. エケーン=L(λt)k → 0, n → ∞。 0.85
(24) Furthermore, if ˜L(λ) is L-strongly convex on S with the minimum point λ∗, i.e., L 2 kλ − ηk2, ∀λ, η ∈ N , (24) さらに、nL(λ) が最小点 λ∗ を持つ S 上の L-強凸であれば、すなわち L 2 kλ − ηk2, sλ, η ∈ N である。 0.81
˜L(λ) ≥ ˜L(η) + ∇ ˜L(η)⊤(λ − η) + λ − η) + λL(λ) + λL(η) 0.56
英語(論文から抽出)日本語訳スコア
then min t=1,...,n じゃあ ミン t=1,...,n 0.66
Ekλt − λ∗k → 0, n → ∞. Ekλt − λ∗k → 0, n → ∞。 0.82
10 (25) The result in (24) says that the algorithm does stop at a stationary point of the target ˜L(λ). 10 (25) 結果 (24) は、アルゴリズムが目標である λ(λ) の静止点で停止することを示す。 0.81
The result in (25) says that, under the strong convexity condition, the algorithm converges to the minimum point λ∗. その結果 (25) は、強い凸条件の下で、アルゴリズムは最小点 λ∗ に収束することを示す。 0.81
Given the results in Lemma 1, the proof is a direct corollary of Theorem 1 in Ref. Lemma 1 の結果を考えると、証明は Ref における Theorem 1 の直系である。 0.79
[13] and hence omitted. 13]と省略された。 0.73
Quantum natural gradient descent and coordinate descent 量子自然勾配勾配と座標勾配 0.71
This section provides some exploratory discussions on the nature of our hybrid algorithm. 本稿では,ハイブリッドアルゴリズムの性質について探索的な議論を行う。 0.71
First, we note that our quantum natural gradient descent method in Algorithm 3 is similar in spirit to randomized coordinate descent [59]. まず,アルゴリズム3における量子自然勾配降下法は,無作為座標降下 [59] と精神的に類似していることに注意する。 0.76
Given a limited number of measurements nT , all but a few of the components ˆgi in (22) are zero, and the moving direction in the optimization process only reflects those coordinates i with large amplitude |gi|. 限られた数の nT が与えられると、(22) 内のいくつかの成分はゼロであり、最適化過程の移動方向は、大きな振幅 |gi| の座標 i のみを反映する。 0.75
Hence, in a sense, our quantum natural gradient descent is a variant of the Gauss-Southwell coordinate descent, in which the “best” coordinates are chosen. したがって、ある意味では、量子自然勾配降下はガウス-サウスウェル座標降下の変種であり、「最良の」座標が選択される。 0.73
Coordinate descent converges faster with the Gauss-Southwell rule than a purely random coordinate selection [60]. 座標降下は純粋にランダムな座標選択[60]よりもガウス・サウスウェル則に早く収束する。 0.67
We note that, on a classical computer, coordinate descent with Gauss-Southwell rule is more computationally intensive than simple coordinate descent, because it requires the computation of the full gradient vector; quantum measurement delivers Gauss-Southwell coordinate descent automatically. 古典的なコンピュータでは、ガウス-サウスウェル則による座標降下は、完全な勾配ベクトルの計算を必要とするため、単純な座標降下よりも計算集約的であることに注意する。 0.69
One critical difference between classical coordinate descent and quantum natural gradient descent is that we do not use an exact gradient. 古典的座標降下と量子的自然勾配降下の1つの重要な違いは、正確な勾配を使わないことである。 0.68
The quantum estimates are unbiased, but noisy. 量子の推定値にはバイアスはないがノイズがある。 0.55
Noisy coordinate descent is rarely considered in classical computation [61]. 古典計算[61]ではノイズ座標降下はほとんど考慮されない。 0.72
Our quantum gradient descent is both coordinate-wise and noisy as a result of the intrinsic properties of quantum measurement. 我々の量子勾配降下は、量子測定の本質的性質の結果、座標的にもノイズも大きい。 0.74
Another critical difference between coordinate descent and the quantum natural gradient is that our algorithm estimates the natural gradient. 座標降下と量子自然勾配のもう一つの重要な違いは、我々のアルゴリズムが自然勾配を推定することである。 0.68
Coordinate natural gradient has not been considered classically because in order to estimate a single natural gradient direction one effectively needs all the other directions, defeating the purpose of coordinate descent. 座標自然勾配は、単一の自然勾配方向を推定するために、他の全ての方向を効果的に必要とし、座標降下の目的を損なうため、古典的には考慮されていない。 0.64
Runtime analysis The quantum natural gradient in Algorithm 2 requires loading the vector h into the quantum computer and (classically) initializing gates implementing the operator eiAt. ランタイム分析 アルゴリズム2の量子自然勾配は、ベクトルhを量子コンピュータにロードし、(古典的な)作用素eiatを実装するゲートを初期化する必要がある。 0.73
Representing h as a quantum state in amplitude encoding [62] requires log2 M qubits and O(M ) operations. h を振幅符号化 [62] の量子状態として表現するには log2 m qubits と o(m ) 演算が必要である。 0.75
This is computationally efficient because M ≪ N ; the number of operations required to initialize the state can be reduced further if techniques such as Quantum Random Access Memory [63] and the Clader et al method [46] can be applied. 量子ランダムアクセスメモリ [63] や clader et al 法 [46] などの手法が適用できれば、状態の初期化に必要な演算数をさらに削減できる。
訳抜け防止モード: これは計算効率が良く、なぜなら m が n であるからである。 ; 量子ランダムアクセスメモリ[63]のような技術を使えば、状態の初期化に必要な操作数をさらに削減できる。 clader et al method (複数形 clader et al method)
0.68
Simulation of eiAt requires time of order O(M 2t log N ) [64] and poly(log(N + M ), M, log(1/ε)) quantum gates [65], with M acting as the sparseness of A and ε the precision parameter. eiAt のシミュレーションには順序 O(M 2t log N ) [64] とポリ(log(N + M ), M, log(1/ε)) 量子ゲート [65] の時間が必要である。
訳抜け防止モード: eiAt のシミュレーションには順序 O(M 2 t log N ) [ 64 ] およびポリ(log(N + M ), M, log(1 / ε ) ) 量子ゲート [65 ] M が A と ε のスパース性として振る舞うとき、精度パラメータは ε である。
0.87
The gate preparation step is required once per iteration of Algorithm 3 and does not need to be duplicated for repeated measurements of state |gi. ゲート準備ステップはアルゴリズム3の反復毎に1回必要であり、状態 |gi を繰り返し測定するために重複する必要はない。 0.82
Given the relevant quantum states and quantum gates, the runtime, i.e. 関連する量子状態と量子ゲートが与えられた場合、ランタイム、すなわち、 0.77
the number of operations needed, of the HHL-based pseudoinverse algorithm is O(M 2κ2ε−1 log N ) (see, e g [58]), where κ is the condition number of matrix A and ε is the error parameter (e g which bounds the precision of quantum phase estimation). HHL をベースとした擬逆アルゴリズムの演算数は O(M 2κ2ε−1 log N ) (e g [58]) であり、κ は行列 A の条件数、ε は誤差パラメータ (e g は量子位相推定の精度を束縛している) である。 0.86
The condition number κ can be bounded by preconditioning. 条件番号κは、プレコンディショニングによりバウンドすることができる。 0.60
Given σ, the required standard error of natural gradient coordinate estimation, the runtime of the quantum natural gradient algorithm in Algorithm 2 is O(M 2κ2ε−1σ−2 log N )). σ が与えられたとき、自然勾配座標推定に必要な標準誤差は、アルゴリズム2における量子自然勾配アルゴリズムのランタイムは O(M 2κ2ε−1σ−2 log N ) である。 0.73
The classical natural gradient using (9) requires O(N d) operations, with 2 < d ≤ 3. 9) を用いた古典的自然勾配は 2 < d ≤ 3 の O(N d) 演算を必要とする。 0.89
IV. A NUMERICAL EXAMPLE: STIEFEL NEURAL NETWORK VB IV。 数値的な例:stiefel neural network vb 0.68
This section provides a numerical example that highlights the need for quantum speed up to unlock further applications in deep learning. この節では、ディープラーニングのさらなる応用を解き明かすために量子スピードを上げる必要性を強調した数値的な例を紹介します。 0.55
We demonstrate, using classical simulation, how quantum natural gradient can enable inference on a high-dimensional dataset using an expressive, but computationally demanding deep neural network VB framework. 古典的シミュレーションを用いて、量子自然勾配が表現力のあるが計算に要求される深層ニューラルネットワークvbフレームワークを用いて、高次元データセット上での推論を可能にする方法を示す。 0.64
英語(論文から抽出)日本語訳スコア
11 The recent VB literature has called for the use of flexible and expressive variational distributions qλ that are able to approximate sufficiently well a wide range of posterior distributions. 11 近年のVB文献では、幅広い後方分布を十分に近似できるフレキシブルかつ表現力のある変分分布 qλ の使用が求められている。
訳抜け防止モード: 11 最近のVB文献はフレキシブルの使用を要求している 表現的な変分分布qλは 広範囲の後方分布を十分に近似することができます
0.84
We consider such a flexible variational distribution by the following construction 以下の構成により、そのような柔軟な変動分布を考える。 0.64
Z0 ∼ N (0, I), Zk = ζk(WkZk−1 + bk), k = 0, ..., K, Z0 > N (0, I), Zk = >k(WkZk−1 + bk), k = 0, ..., K, 0.84
(26) where N (0,I) denotes the multivariate standard normal distribution, the ζk are activation functions such as tanh or sigmoid, Wk and bk are coefficient matrices and vectors respectively. (26) N (0,I) が多変量標準正規分布を表すとき、sk は tanh や sigmoid のような活性化関数であり、Wk と bk はそれぞれ係数行列とベクトルである。 0.82
The distribution of ZK gives us the variational distribution qλ with λ = (W1,b1,...,WK ,bK). zk の分布は、λ = (w1,b1,...,wk ,bk) を持つ変分分布 qλ を与える。 0.75
The construction in (26) is a neural network with K layers and can be considered as an example of normalizing flows - a class of methods for constructing expressive probability distributions via a composition of simple bijective transformations [66]. 26) の構成は k 層を持つニューラルネットワークであり、単純な単射変換の合成によって表現的確率分布を構築するための手法のクラスであるフローの正規化の例と考えることができる [66]。 0.83
There are two desirable properties of a normalizing flow: the transformation from Zk−1 to Zk must be invertible and, for computational efficiency, it must be easy to compute the Jacobian determinant. zk−1 から zk への変換は可逆でなければならず、計算効率のためにヤコビ行列式を計算することは容易である。
訳抜け防止モード: 正規化フローには2つの望ましい性質がある Zk−1 から Zk への変換は可逆でなければならない そして、計算効率のためには、ヤコビ行列式を計算するのが簡単でなければならない。
0.63
To this end, we impose the following constraint on the Wk: この目的のために、Wk に以下の制約を課す。 0.59
W ⊤k Wk = I, k = 1, ..., K, W は Wk = I, k = 1, ..., K である。 0.81
that is, Wk belongs to the Stiefel manifold. すなわち、Wk はスティーフェル多様体に属する。 0.40
This constraint makes it easy to compute the inverse Zk−1 = W ⊤k (ζ−1 k (Zk)− bk), and the Jacobian is a diagonal matrix. この制約により、逆 Zk−1 = W {\displaystyle Zk-1(Zk)−bk) の計算が容易になり、ヤコビアンは対角行列である。 0.74
We refer to the construction of probability distributions in (26) as the Stiefel normalizing flow or the Stiefel neural network. 我々は(26)における確率分布の構成をStiefel正規化フローあるいはStiefelニューラルネットワークと呼ぶ。 0.73
As λ has a rich geometric structure, adaptive learning methods such as Adam and AdaGrad fail to work, leaving the natural gradient method the only option for training λ. λ は幾何構造が豊富であるため、adam や adagrad のような適応学習法は機能せず、自然勾配法は λ を訓練する唯一の選択肢である。 0.76
Being a deep neural network, the Stiefel normalizing flow is expressive and can approximate a wide range of probability distributions. ディープニューラルネットワークであるスティフェル正規化フローは表現力があり、幅広い確率分布を近似することができる。 0.75
However, it is extremely computationally expensive to use this normalizing flow in VB as the number of parameters in λ is quadratic in the number of model parameters, which poses a real challenge for the current computational technologies. しかし、λ のパラメータの数がモデルパラメータの2乗であるため、VB のこの正規化フローを使用するのは非常に計算コストが高く、現在の計算技術では真の課題となっている。 0.78
This section simulates and demonstrates the performance of quantum natural gradient for the Stiefel neural network VB in a small dimensional setting. 本稿では,Stiefel ニューラルネットワーク VB の量子的自然勾配を小次元的にシミュレーションし,その性能を実証する。 0.82
We make it clear upfront that this numerical example is not run on a real quantum computer; despite many hardware advances made recently, the availability of such a computer for general use is still years away. この数値的な例が実際の量子コンピュータ上では動かないことを明確にする。最近のハードウェアの進歩は多いが、そのようなコンピュータの一般利用は、まだ何年も先である。 0.80
This example uses a quantum-like surrogate to test the performance of the quantum measurement step for reading off the quantum state |gi into a classical vector bg as in (22). この例では、量子状態 |gi を (22) のように古典ベクトル bg に読み取る量子測定ステップの性能をテストするために量子様サロゲートを用いる。 0.86
Given the manifold constraints of the Wk, we use the VB method on manifolds of Tran et al [67]. Wk の多様体の制約を考えると、Tran et al [67] の多様体上の VB 法を用いる。 0.57
We use the gene expression dataset, Colon, from http://www.csie.ntu. edu.tw/~cjlin/libsvm tools/datasets/binar y.html. colonは、http://www.csie.ntu. edu.tw/~cjlin/libsvm tools/datasets/binar y.htmlの遺伝子発現データセットです。 0.41
This dataset has 62 observations on a binary response variable and 2000 covariates (we only use the first 50 covariates, plus an intercept, in this example). このデータセットはバイナリ応答変数の62の観測と2000の共変量を持つ(この例では最初の50の共変量とインターセプトのみを使用する)。 0.75
We consider fitting a logistic regression model to this dataset, and approximate its posterior by a Stiefel neural network with K = 2, hence, the size of λ is N = 5304. このデータセットにロジスティック回帰モデルを適用することを考慮し、k = 2 のスティーフェルニューラルネットワークによってその後方を近似するので、λ のサイズは n = 5304 である。 0.78
With such a high dimension, it is prohibitively computationally expensive to simulate the HHL algorithm on a classical computer; hence we do not attempt to do so, instead, focus on the less-explored quantum measurement step, which is the computational bottleneck of the HHL algorithm. このような高次元では、古典的コンピュータ上でHHLアルゴリズムをシミュレートするのは計算コストが極端に高く、従って、HHLアルゴリズムの計算ボトルネックである探索の少ない量子計測ステップに焦点を絞ろうとはしない。
訳抜け防止モード: このような高次元では 計算量的に高価で 古典的コンピュータ上で hhl アルゴリズムをシミュレートし なので我々は試みません そうするために 代わりに、より少ない-探索された量子測定ステップに注目します。 hhlアルゴリズムの計算ボトルネックです
0.79
More precisely, we compute g i and n−i classically as in (9), normalize it, then estimate the bgi as in (22). より正確には、g i と n−i を古典的に (9) で計算し、正規化し、 (22) で bgi を推定する。 0.79
That is, the frequency numbers n+ are obtained from a multinomial distribution with probabilities |gi± 1√N |2/4. すなわち、周波数数n+は確率 |gi± 1\N |2/4 の多重項分布から得られる。 0.75
The number of measurements used in this example is nT = 500, with M = 1000 Monte Carlo samples. この例で用いられる測定値はnT = 500であり、M = 1000モンテカルロサンプルである。 0.79
Figure 1 plots the lower bound estimates over the iterations. 図1はイテレーションよりも低い境界推定をプロットします。 0.73
The smooth increasing of the lower bound objective function indicates that the VB algorithm with quantum natural gradient is converging and well behaved. 下界目的関数の滑らかな増加は、量子自然勾配を持つvbアルゴリズムが収束し、よく振る舞うことを示している。 0.73
V. CONCLUSION V.コンキュレーション 0.76
We have proposed a quantum natural gradient approach for VB, a step towards making VB a truly computationally efficient method for Bayesian inference. 我々は、ベイズ推論の真に計算効率の良い方法として、VBの量子自然勾配法を提案する。 0.63
We described a HHL-like routine for preparing the natural gradient quantum state, and showed how to efficiently read off this quantum state into a classical vector that is useful for VB training. 我々は、自然勾配量子状態を作成するためのHHLライクなルーチンを説明し、この量子状態をVBトレーニングに役立つ古典的ベクトルに効率的に読み取る方法を示した。 0.73
Our quantum natural gradient is one of the best uses of the HHL algorithm. 我々の量子自然勾配は、HHLアルゴリズムの最良の用途の一つである。 0.69
The hybrid quantum-classical VB with quantum natural gradient has a complexity of order 量子自然勾配を持つハイブリッド量子古典的VBは秩序の複雑さを持つ 0.82
英語(論文から抽出)日本語訳スコア
12 -56.5 -57 12 -56.5 -57 0.70
-57.5 -58 -58.5 -57.5 -58 -58.5 0.58
-59 -59.5 -60 -59 -59.5 -60 0.68
-60.5 -61 -61.5 -60.5 -61 -61.5 0.58
0 50 100 150 0 50 100 150 0.85
200 250 300 200 250 300 0.85
350 400 450 350 400 450 0.85
FIG. 1: Lower bound over iterations for Stiefel neural network VB with quantum natural gradient. FIG 1: 量子自然勾配を持つスティフェルニューラルネットワークVBの繰り返しを下げる。 0.51
The smoothly-increasing lower bound indicates a well-behaved training VB procedure. 滑らかに増大する下界は、十分に訓練されたVB手順を示す。 0.37
O(N ) compared to O(N d), 2 < d≤ 3, of its classical counterpart. O(N ) を O(N d) と比較すると、2 < d≤ 3 となる。 0.72
[1] M. D. Hoffman, D. M. Blei, C. Wang, and J. Paisley, Stochastic variational inference, Journal of Machine Learning [1] M. D. Hoffman, D. M. Blei, C. Wang, J. Paisley, Stochastic Variational Inference, Journal of Machine Learning 0.96
Research 14, 1303 (2013). 第14巻1303年(2013年)。 0.49
[2] D. Kingma and M. Welling, Auto-encoding Variational Bayes, in 2nd International Conference on Learning [2] D. Kingma and M. Welling, Auto-Encoding Variational Bayes, in 2nd International Conference on Learning 0.93
Representations (2014). 2014年)に登場。 0.50
[3] C. Zhang, J. B¨utepage, H. Kjellstr¨om, and S. Mandt, Advances in variational inference, IEEE transactions on [3]C. Zhang, J. B ’utepage, H. Kjellstr ’om, S. Mandt, Advances in variational inference, IEEE transaction on 0.88
pattern analysis and machine intelligence 41, 2008 (2018). パターン分析とマシンインテリジェンス 41, 2008 (2018)。 0.76
[4] W. Guan, G. Perdue, A. Pesah, M. Schuld, K. Terashi, S. Vallecorsa, et al , Quantum machine learning in high [4]W.Guan, G. Perdue, A. Pesah, M. Schuld, K. Terashi, S. Vallecorsa, et al , Quantum Machine Learning in High 0.95
energy physics, Machine Learning: Science and Technology (2020). エネルギー物理学、機械学習:科学技術(2020年)。 0.76
[5] S.-I. Amari, Natural gradient works efficiently in learning, Neural Computation 10, 251 (1998). [5]S-I。 Amari, Natural gradient は、ニューラルネットワーク 10, 251 (1998) の学習において効率よく機能する。 0.74
[6] M. Sato, Online model selection based on the variational Bayes, Neural Computation 13, 1649 (2001). [6]M. Sato, Online model selection based on the variational Bayes, Neural Computation 13 1649 (2001) 0.76
[7] M. Tran, D. Nott, and R. Kohn, Variational Bayes with intractable likelihood, Journal of Computational and [7]M. Tran,D. Nott,R. Kohn,intractable chance,Journal of Computational,
訳抜け防止モード: [7 ]M. Tran,D. Nott,R. Kohn 難易度のある変分ベイズ, 計算日誌および計算日誌
0.77
Graphical Statistics 26, 873 (2017). グラフ統計26,873 (2017)。 0.69
[8] A. Mishkin, F. Kunstner, D. Nielsen, M. Schmidt, and M. E. Khan, Slang: Fast structured covariance approximations for Bayesian deep learning with natural gradient, Neural Information Processing Systems (NIPS) (2018). A. Mishkin, F. Kunstner, D. Nielsen, M. Schmidt, M. E. Khan, Slang: 自然勾配によるベイズ深層学習のための高速構造化共分散近似, Neural Information Processing Systems (NIPS) (2018)。 0.87
[9] J. Martens, 9] J。 Martens 0.53
New insights and 新しいもの 洞察 そして 0.71
perspectives on the natural 視点 オン はあ? 自然 0.61
gradient method, Journal of Machine Learning Research 21, 1 (2020). 勾配 方法 Journal of Machine Learning Research 21 (2020)。 0.55
[10] A. W. Harrow, A. Hassidim, and S. Lloyd, Quantum algorithm for linear systems of equations, Physical Review 10] a. w. harrow, a. hassidim, and s. lloyd, quantum algorithm for linear systems of equation, physical review 0.83
Letters 103, 150502 (2009). 103, 150502 (2009)。 0.55
英語(論文から抽出)日本語訳スコア
13 [11] T. Salimans, D. A. Knowles, et al , Fixed-form variational posterior approximation through stochastic linear 13 11]t. salimans, d. a. knowles, et al, fixed-form variational posterior approximation through stochastic linear 0.85
regression, Bayesian Analysis 8, 837 (2013). レグレッション, Bayesian Analysis 8, 837 (2013)。 0.69
[12] L. Malago, M. Matteucci, and G. Pistone, Natural gradient, fitness modelling and model selection: A unifying 12] L. Malago, M. Matteucci, G. Pistone, Natural gradient, fitness modelling and model selection: A unifying 0.86
perspective, in 2013 IEEE Congress on Evolutionary Computation (IEEE, 2013) pp. 2013年、ieee congress on evolutionary computation (ieee, 2013) pp。 0.62
486–493. [13] A. Lopatnikova and M.-N. Tran, Regression-based natural gradient for variational bayes, Working paper (2021). 486–493. 13] a. lopatnikova and m.-n. tran, regression-based natural gradient for variational bayes, working paper (2021) 0.81
[14] S. Aaronson, Read the fine print, Nature Physics 11, 291 (2015). 14] S. Aaronson, Read the fine print, Nature Physics 11, 291 (2015)。 0.79
[15] M. Schuld, I. Sinayskiy, and F. Petruccione, Prediction by linear regression on a quantum computer, Physical M. Schuld, I. Sinayskiy, F. Petruccione, Prediction by linear regression on a quantum computer, Physical
訳抜け防止モード: [15 ]M. Schuld, I. Sinayskiy, F. Petruccione 量子コンピュータにおける線形回帰による予測 -物理-
0.84
Review A 94, 022342 (2016). A 94, 022342 (2016)を参照。 0.79
[16] B. Duan, J. Yuan, Y. Liu, and D. Li, Quantum algorithm for support matrix machines, Physical Review A 96, B. Duan, J. Yuan, Y. Liu, D. Li, Quantum Algorithm for support matrix machines, Physical Review A 96 0.77
032301 (2017). 032301 (2017). 0.85
[17] D. Wang, O. Higgott, and S. Brierley, Accelerated variational quantum eigensolver, Physical Review Letters 122, [17]d. wang,o. higgott,s. brierley,accelerated variational quantum eigensolver, physical review letters 122 0.74
140504 (2019). 140504 (2019). 0.85
[18] A. M. Childs, R. Kothari, and R. D. Somma, Quantum algorithm for systems of linear equations with exponen- 18] a. m. childs, r. kothari, r. d. somma, exponen を用いた線形方程式系の量子アルゴリズム 0.80
tially improved dependence on precision, SIAM Journal on Computing 46, 1920 (2017). SIAM Journal on Computing 46, 1920 (2017)。 0.34
[19] Ambainis [? ] [19]アムバイニス[?] 0.57
improves the dependence of the linear systems algorithm complexity on the condition number κ. 条件数κに対する線形系アルゴリズムの複雑性の依存性を改善する。 0.85
Because in our case a noisy estimate of the gradient is sufficient, regularization provides a simple way to mitigate the dependence on κ. 私たちの場合、勾配のノイズの多い推定は十分であるので、正規化はκへの依存を緩和する簡単な方法を提供する。
訳抜け防止モード: この場合 勾配のノイズ推定だけで十分だからです 正規化はκ への依存を緩和する簡単な方法を提供する。
0.70
[20] N. Wiebe, D. Braun, and S. Lloyd, Quantum algorithm for data fitting, Physical Review Letters 109, 050505 N. Wiebe, D. Braun, and S. Lloyd, Quantum Algorithm for data fit, Physical Review Letters 109, 050505 0.82
(2012). [21] G. Wang, Quantum algorithm for linear regression, Physical Review A 96, 012335 (2017). (2012). [21]g. wang, quantum algorithm for linear regression, physical review a 96, 012335 (2017) 0.80
[22] H.-L. Liu, C.-H. Yu, Y.-S. Wu, S.-J. [22]H.-L.Liu,C.-H. Yu,Y.-S.Wu,S.-J. 0.61
Pan, S.-J. Pan, S.-J。 0.80
Qin, F. Gao, and Q.-Y. Qin, F. Gao, Q.-Y。 0.88
Wen, Quantum algorithm for logistic 対数論のためのウェン量子アルゴリズム 0.66
regression, arXiv preprint arXiv:1906.03834 (2019). 回帰、arXiv preprint arXiv:1906.03834 (2019)。 0.76
[23] I. Kerenidis and A. Prakash, Quantum gradient descent for linear systems and least squares, Physical Review A [23] I. Kerenidis と A. Prakash, 線形系と最小二乗系の量子勾配勾配, 物理レビューA 0.91
101, 022316 (2020). 101, 022316 (2020). 0.85
[24] H. Miyahara and Y. Sughiyama, Quantum extension of variational bayes inference, Physical Review A 98, 022330 [24]H. Miyahara,Y. Sughiyama, Quantum extension of variational Bayes inference, Physical Review A 98, 022330 0.89
(2018). [25] G. H. Low, T. J. Yoder, and I. L. Chuang, Quantum inference on bayesian networks, Physical Review A 89, (2018). [25] G. H. Low, T. J. Yoder, I. L. Chuang, Quantum inference on Bayesian network, Physical Review A 89, 0.91
062315 (2014). 062315 (2014). 0.85
[26] P. Rebentrost, M. Mohseni, and S. Lloyd, Quantum support vector machine for big data classification, Physical [26]P. Rebentrost,M. Mohseni,S. Lloyd,Quantum Support vector machine for big data classification, Physical 0.85
Review Letters 113, 130503 (2014). 書評 113, 130503 (2014)。 0.63
[27] P. Rebentrost, T. R. Bromley, C. Weedbrook, and S. Lloyd, Quantum hopfield neural network, Physical Review [27]P. Rebentrost, T. R. Bromley, C. Weedbrook, S. Lloyd, Quantum hopfield Neural Network, Physical Review 0.94
A 98, 042308 (2018). a98, 042308 (2018)。 0.68
[28] M. Schuld and N. Killoran, Quantum machine learning in feature hilbert spaces, Physical Review Letters 122, 28] m. schuld and n. killoran, quantum machine learning in feature hilbert spaces, physical review letters 122, 0.80
040504 (2019). 040504 (2019). 0.85
[29] M. Schuld, A. Bocharov, K. M. Svore, and N. Wiebe, Circuit-centric quantum classifiers, Physical Review A He29] M. Schuld, A. Bocharov, K. M. Svore, N. Wiebe, Circuit-centric quantum classifiers, Physical Review A 0.90
101, 032308 (2020). 101, 032308 (2020). 0.85
[30] A. Abbas, D. Sutter, C. Zoufal, A. Lucchi, A. Figalli, and S. Woerner, The power of quantum neural networks, A. Abbas, D. Sutter, C. Zoufal, A. Lucchi, A. Figalli, S. Woerner, The power of quantum neural network, 0.83
arXiv preprint arXiv:2011.00027 (2020). arXiv preprint arXiv:2011.00027 (2020)。 0.75
[31] C.-Y. Park and M. J. Kastoryano, Geometry of learning neural quantum states, Physical Review Research 2, [31]C.-Y。 park and m. j. kastoryano, geometry of learning neural quantum states, physical review research 2 (英語) 0.81
023232 (2020). 023232 (2020). 0.85
[32] J. R. McClean, J. Romero, R. Babbush, and A. Aspuru-Guzik, The theory of variational hybrid quantum-classical J. R. McClean, J. Romero, R. Babbush, A. Aspuru-Guzik, The theory of variational hybrid quantum-classical 0.90
algorithms, New Journal of Physics 18, 023023 (2016). 英題: algorithms, new journal of physics 18, 023023 (2016)。 0.88
[33] S. McArdle, T. Jones, S. Endo, Y. Li, S. C. Benjamin, and X. Yuan, Variational ansatz-based quantum simulation [33]S. McArdle, T. Jones, S. Endo, Y. Li, S. C. Benjamin, X. Yuan, 変分アンザッツに基づく量子シミュレーション 0.83
of imaginary time evolution, npj Quantum Information 5, 1 (2019). 想像上の時間発展について、npj量子情報5,1 (2019)。 0.74
[34] A. Harrow and J. Napp, Low-depth gradient measurements can improve convergence in variational hybrid [34]A.HarrowとJ.Nappの低深さ勾配測定は変分ハイブリッドの収束を改善する 0.75
quantum-classical algorithms, arXiv preprint arXiv:1901.05374 (2019). 量子古典アルゴリズム arXiv preprint arXiv:1901.05374 (2019) 0.87
[35] J. Stokes, J. Izaac, N. Killoran, and G. Carleo, Quantum natural gradient, Quantum 4, 269 (2020). [35] j. stokes, j. izaac, n. killoran, g. carleo, quantum natural gradient, quantum 4, 269 (2020)
訳抜け防止モード: [35 ]J. Stokes, J. Izaac, N. Killoran, そして、G. Carleo, Quantum natural gradient, Quantum 4, 269 (2020 )。
0.95
[36] M. Schuld, V. Bergholm, C. Gogolin, J. Izaac, and N. Killoran, Evaluating analytic gradients on quantum [36] M. Schuld, V. Bergholm, C. Gogolin, J. Izaac, N. Killoran : 量子上の解析勾配の評価 0.87
hardware, Physical Review A 99, 032331 (2019). ハードウェア, Physical Review A 99, 032331 (2019)。 0.78
[37] Consider a discretization with d1 points for each dimension. [37]各次元に対するd1点の離散化を考える。 0.87
It would require an O(hN ) dimensional Hilbert space これは O(hN ) 次元ヒルベルト空間を必要とする。 0.74
and O(N logd1) qubits. そして、O(N logd1) qubits。 0.84
[38] P. Rebentrost, M. Schuld, L. Wossnig, F. Petruccione, and S. Lloyd, Quantum gradient descent and newton’s [38]P. Rebentrost, M. Schuld, L. Wossnig, F. Petruccione, S. Lloyd, Quantum gradient descent and newton's 0.96
method for constrained polynomial optimization, New Journal of Physics 21, 073023 (2019). 制約付き多項式最適化法、new journal of physics 21, 073023 (2019) 0.72
[39] The algorithm leverages the density matrix exponentiation method of Lloyd et al [? [39]このアルゴリズムはロイドらの密度行列指数法を活用している [? 0.69
]. [40] Bausch [? ] ]. [40]バスチ[?] 0.56
proposes a recurrent method with post-selection in the context of quantum Recurrent Neural Networks and argues that, for approximate post-selection it is possible to reduce this overhead. 量子リカレントニューラルネットワークの文脈で、ポスト選択を伴うリカレント法を提案し、近似後選択のためにこのオーバーヘッドを削減できると主張する。 0.65
Another possible approach is to run the iterative algorithm without post-selection for T steps and then amplify the desired end state using Quantum Amplitude Amplification (QAA) [? もう1つの可能なアプローチは、tステップの事後選択なしで反復アルゴリズムを実行し、量子振幅増幅(qaa)を使用して所望のエンド状態を増幅する。
訳抜け防止モード: もう1つの可能なアプローチは、Tステップの選択をポストせずに反復アルゴリズムを実行することである。 量子振幅増幅(QAA) [?
0.79
]. Even with these improvements, the exponential dependence on the number of iterations T /z (where z = 2 for QAA method) remains. ]. これらの改善にもかかわらず、反復数 T /z (QAA 法で z = 2 となる) への指数的依存は残っている。 0.64
[41] R. Sweke, F. Wilde, J. J. Meyer, M. Schuld, P. K. F¨ahrmann, B. Meynard-Piganeau, and J. Eisert, Stochastic [41] R. Sweke, F. Wilde, J. J. Meyer, M. Schuld, P. K. F. ahrmann, B. Meynard-Piganeau, J. Eisert, Stochastic 0.81
gradient descent for hybrid quantum-classical optimization, Quantum 4, 314 (2020). ハイブリッド量子古典最適化のための勾配降下、quantum 4, 314 (2020)。 0.80
英語(論文から抽出)日本語訳スコア
14 [42] K. Mitarai, M. Negoro, M. Kitagawa, and K. Fujii, Quantum circuit learning, Physical Review A 98, 032309 14 [42]K. Mitarai,M. Negoro,M. Kitagawa,K. Fujii,K. Quantum circuit learning, Physical Review A98,032309 0.89
(2018). [43] C. Zoufal, A. Lucchi, and S. Woerner, Quantum generative adversarial networks for learning and loading random (2018). 43] C. Zoufal, A. Lucchi, S. Woerner, Quantum Generative Adversarial Network for Learning and loading random 0.83
distributions, npj Quantum Information 5, 1 (2019). distributions, npj Quantum Information 5, 1 (2019)。 0.81
[44] C. Zoufal, A. Lucchi, and S. Woerner, Variational quantum boltzmann machines, arXiv preprint arXiv:2006.06004 [44] C. Zoufal, A. Lucchi, S. Woerner, Variational quantum boltzmann machines, arXiv preprint arXiv:2006.06004 0.91
(2020). [45] I. (2020). [45]I。 0.81
Goodfellow, Goodfellow 0.41
Y. Bengio, and Y! Bengio そして 0.59
A. Courville, A。 Courville 0.62
Deep Learning (MIT 深く 学習 (MIT) 0.77
Press, 2016) http://www.deeplearn ingbook.org. 押せ! 2016) 詳細はwww.deeplearningbook .org。 0.62
[46] B. D. Clader, B. C. Jacobs, and C. R. Sprouse, Preconditioned quantum linear system algorithm, Physical Review B. D. Clader, B. C. Jacobs, C. R. Sprouse, Preconditioned quantum linear system algorithm, Physical Review
訳抜け防止モード: [46 ]B. D. Clader, B. C. Jacobs, C. R. Sprouse, Preconditioned quantum linear system algorithm, Physical Review
0.96
Letters 110, 250504 (2013). 110, 250504 (2013)。 0.57
[47] Clader et al [46] cite that the best classical algorithm sparse matrix inversion requires O(N sκlog(1/ǫ)) operations. [47] Clader et al [46] は、最も古典的なアルゴリズムスパース行列の逆転は O(N sκlog(1/)) 演算を必要とすることを引用している。
訳抜け防止モード: [47 ] Clader et al [ 46 ] 古典的アルゴリズムのスパース行列逆転は、O(N sκlog(1 / s ) ) 演算を必要とする。
0.82
In our case, the inverted Fisher matrix is a product of two sparse matrices and is itself not sparse, requiring at least O(N d), with 2 < d ≤ 3, operations to be inverted. 我々の場合、逆フィッシャー行列は2つのスパース行列の積であり、それ自体はスパースではないので、少なくとも O(N d) と 2 < d ≤ 3 の演算を反転させる必要がある。 0.70
The quantum algorithm exploits the structure of the Fisher matrix. 量子アルゴリズムはフィッシャー行列の構造を利用する。 0.70
[48] M. Reiher, N. Wiebe, K. M. Svore, D. Wecker, and M. Troyer, Elucidating reaction mechanisms on quantum [48] M. Reiher, N. Wiebe, K. M. Svore, D. Wecker, M. Troyer, Elucidating reaction mechanism on quantum 0.96
computers, Proceedings of the National Academy of Sciences 114, 7555 (2017). コンピュータ、米国科学アカデミー紀要 114, 7555 (2017)。 0.54
[49] A. Aspuru-Guzik, R. Lindh, and M. Reiher, The matter simulation (r) evolution, ACS Central Science 4, 144 A. Aspuru-Guzik, R. Lindh, M. Reiher, The matter Simulation (r) evolution, ACS Central Science 4, 144 0.81
(2018). [50] Y. Cao, J. Romero, and A. Aspuru-Guzik, Potential of quantum computing for drug discovery, IBM Journal of (2018). Y. Cao, J. Romero, and A. Aspuru-Guzik, potential of quantum computing for drug discovery, IBM Journal 0.83
Research and Development 62, 6 (2018). 研究開発 62, 6 (2018)。 0.67
[51] S. McArdle, S. Endo, A. Aspuru-Guzik, S. C. Benjamin, and X. Yuan, Quantum computational chemistry, [51]S. McArdle, S. Endo, A. Aspuru-Guzik, S. C. Benjamin, X. Yuan, Quantum Computer Chemistry 0.91
Reviews of Modern Physics 92, 015003 (2020). The Reviews of Modern Physics 92, 015003 (2020)。 0.86
[52] R. Babbush, N. Wiebe, J. McClean, J. McClain, H. Neven, and G. K.-L. Chan, Low-depth quantum simulation 52] R. Babbush, N. Wiebe, J. McClean, J. McClain, H. Neven, G. K.-L. Chan, 低深さ量子シミュレーション 0.83
of materials, Physical Review X 8, 011044 (2018). 材料については Physical Review X 8, 011044 (2018) を参照。 0.78
[53] A. Macridin, P. Spentzouris, J. Amundson, and R. Harnik, Electron-phonon systems on a universal quantum 普遍量子上の電子フォノン系 [53]A. Macridin, P. Spentzouris, J. Amundson, R. Harnik 0.86
computer, Physical Review Letters 121, 110504 (2018). Computer, Physical Review Letters 121, 110504 (2018)。 0.79
[54] A. Ajagekar and F. You, Quantum computing for energy systems optimization: Challenges and opportunities, [54]A. AjagekarとF. you, Quantum Computing for Energy Systems Optimization: Challenges and chance, 0.87
Energy 179, 76 (2019). エネルギー179, 76(2019)。 0.74
[55] A. Robert, P. K. Barkoutsos, S. Woerner, and I. Tavernelli, Resource-efficient quantum algorithm for protein A. Robert, P. K. Barkoutsos, S. Woerner, I. Tavernelli, Resource- efficient quantum algorithm for protein 0.88
folding, npj Quantum Information 7, 1 (2021). folding, npj Quantum Information 7, 1 (2021)。 0.78
[56] N. Stamatopoulos, D. J. Egger, Y. [56]N. Stamatopoulos, D. J. Egger, Y。 0.92
Sun, C. Zoufal, R. Iten, N. Shen, and S. Woerner, Option pricing using Sun, C. Zoufal, R. Iten, N. Shen, S. Woerner, Option pricing using 0.96
quantum computers, Quantum 4, 291 (2020). 量子コンピュータ、Quantum 4, 291 (2020)。 0.75
[57] M.-N. Tran, T.-N. Nguyen, and V.-H. Dao, A practical [57]M.-N. Tran,T.-N. Nguyen,V.-H. Dao 0.79
tutorial on variational bayes, Researchgate 変分ベイズ,リサーチゲートのチュートリアル 0.71
DOI: 10.13140/RG.2.2.2017 3.59360 (2021). DOI:10.13140/RG.2.20 173.59360(2021年) 0.41
[58] D. Dervovic, M. Herbster, P. Mountney, S. Severini, N. Usher, and L. Wossnig, Quantum linear systems algo- 58]D. Dervovic, M. Herbster, P. Mountney, S. Severini, N. Usher, L. Wossnig, Quantum linear systems algo- 0.94
rithms: a primer, arXiv preprint arXiv:1802.08227 (2018). rithms: a primer, arXiv preprint arXiv:1802.08227 (2018)。 0.89
[59] S. Wright, Coordinate descent algorithms, Math. 59]S. Wright, Coordinate descend algorithm, Math。 0.76
Program. 151, 3–34 (2015). プログラム。 151, 3–34 (2015). 0.85
[60] J. Nutini, M. Schmidt, I. Laradji, M. Friedlander, and H. Koepke, Coordinate descent converges faster with the gauss-southwell rule than random selection, in International Conference on Machine Learning (PMLR, 2015) pp. J. Nutini, M. Schmidt, I. Laradji, M. Friedlander, H. Koepke, Coordinate descends faster converges with the gauss-Southwell rule than random selection, International Conference on Machine Learning (PMLR, 2015) pp。 0.80
1632–1641. 1632–1641. 0.71
[61] L. Bottou, F. E. Curtis, and J. Nocedal, Optimization methods for large-scale machine learning, SIAM Review 61] L. Bottou, F. E. Curtis, J. Nocedal, 大規模機械学習最適化手法SIAM Review 0.80
60, 223 (2018). 60, 223 (2018). 0.85
[62] M. Schuld and F. Petruccione, Supervised learning with quantum computers (Springer, 2018). 62] M. Schuld と F. Petruccione, Supervised Learning with quantum computer (Springer, 2018)。 0.85
[63] V. Giovannetti, S. Lloyd, and L. Maccone, Quantum random access memory, Physical Review Letters 100, V. Giovannetti, S. Lloyd, and L. Maccone, Quantum random access memory, Physical Review Letters 100, 0.81
160501 (2008). 160501 (2008). 0.85
[64] D. W. Berry, G. Ahokas, R. Cleve, and B. C. Sanders, Efficient quantum algorithms for simulating sparse D. W. Berry, G. Ahokas, R. Cleve, B. C. Sanders, Efficient quantum algorithm forsimulated sparse 0.78
hamiltonians, Communications in Mathematical Physics 270, 359 (2007). hamiltonians, Communications in Mathematical Physics 270, 359 (2007)。 0.79
[65] S. P. Jordan and P. Wocjan, Efficient quantum circuits for arbitrary sparse unitaries, Physical Review A 80, [65] s. p. jordan と p. wocjan, 任意のスパースユニタリに対する効率的な量子回路, physical review a 80 0.88
062301 (2009). 062301 (2009). 0.85
[66] G. Papamakarios, E. Nalisnick, D. Rezende, S. Mohamed, and B. Lakshminarayanan, Normalizing flows for [66]G. Papamakarios, E. Nalisnick, D. Rezende, S. Mohamed, B. Lakshminarayanan, 正規化流 0.93
probabilistic modeling and inference, Journal of Machine Learning Research 22, 1 (2021). journal of machine learning research 22, 1 (2021) 確率的モデリングと推論。 0.73
[67] M.-N. Tran, D. H. Nguyen, and D. Nguyen, Variational Bayes on manifolds, arXiv:1908.03097 (2019). [67] M.-N. Tran, D. H. Nguyen, D. Nguyen, Variational Bayes on manifold, arXiv:1908.03097 (2019)。 0.81
                             ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。