論文の概要、ライセンス

# (参考訳) 最大平均差を持つ量子生成学習モデルの理論 [全文訳有]

Theory of Quantum Generative Learning Models with Maximum Mean Discrepancy ( http://arxiv.org/abs/2205.04730v1 )

ライセンス: CC BY 4.0
Yuxuan Du, Zhuozhuo Tu, Bujiao Wu, Xiao Yuan, Dacheng Tao(参考訳) 量子力学の本質的な確率論的性質は、量子生成学習モデル(QGLM)を古典的モデルよりも計算上の優位性で設計する試みを誘発する。 現在までに、2つの原型QGLMは量子回路Born Machine (QCBM) と量子生成逆ネットワーク (QGAN) であり、それぞれ明示的および暗黙的な方法でターゲット分布を近似している。 経験的な業績にもかかわらず、これらのモデルの基本理論はほとんど不明である。 この知識のギャップを狭めるため,本研究では,qcbms と qgan の学習能力を一般化の観点から検討する。 特に,量子デバイスがターゲット分布に直接アクセスでき,量子カーネルが使用される場合に,qcbmsの一般化能力を分析し,その優位性を同定する。 次に、QGANの一般化誤差境界が、採用されるAnsatz、クォーディットの数、入力状態に依存することを示す。 この境界は、ハミルトニアン学習タスクにおいて潜在的量子長所を求めるためにさらに用いられる。 量子状態、ガウス分布、およびパラメータ化ハミルトンの基底状態の近似におけるQGLMの数値結果は、理論解析と一致する。 我々の研究は、量子生成学習モデルのパワーを定量的に理解するための道を開く。

The intrinsic probabilistic nature of quantum mechanics invokes endeavors of designing quantum generative learning models (QGLMs) with computational advantages over classical ones. To date, two prototypical QGLMs are quantum circuit Born machines (QCBMs) and quantum generative adversarial networks (QGANs), which approximate the target distribution in explicit and implicit ways, respectively. Despite the empirical achievements, the fundamental theory of these models remains largely obscure. To narrow this knowledge gap, here we explore the learnability of QCBMs and QGANs from the perspective of generalization when their loss is specified to be the maximum mean discrepancy. Particularly, we first analyze the generalization ability of QCBMs and identify their superiorities when the quantum devices can directly access the target distribution and the quantum kernels are employed. Next, we prove how the generalization error bound of QGANs depends on the employed Ansatz, the number of qudits, and input states. This bound can be further employed to seek potential quantum advantages in Hamiltonian learning tasks. Numerical results of QGLMs in approximating quantum states, Gaussian distribution, and ground states of parameterized Hamiltonians accord with the theoretical analysis. Our work opens the avenue for quantitatively understanding the power of quantum generative learning models.
公開日: Tue, 10 May 2022 08:05:59 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 0 1 2 2 0 2 y a m 0 1 である。 0.53
] h pt n a u q [ ] h pt n a u q [ 0.42
1 v 0 3 7 4 0 1 v 0 3 7 4 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Theory of Quantum Generative Learning Models with Maximum Mean Discrepancy 最大平均差を持つ量子生成学習モデルの理論 0.80
Yuxuan Du,1, ∗ Zhuozhuo Tu,2 Bujiao Wu,3 Xiao Yuan,3 and Dacheng Tao1 Yuxuan Du,1, ∗ Zhuozhuo Tu,2 Bujiao Wu,3 Xiao Yuan,3 and Dacheng Tao1 0.36
1JD Explore Academy, Beijing 101111, China 中国の北京101111にある1JDエクスプローラー・アカデミー 0.69
3Center on Frontiers of Computing Studies, School of Computer Science, Peking University, Beijing 100871, China 中国北京100871北京大学 計算機科学研究科 計算学フロンティアセンター
訳抜け防止モード: 3 center on frontiers of computing studies, school of computer science (英語) 北京大学北京100871, 中国
0.86
2School of Computer Science, The University of Sydney, Darlington, NSW 2008, Australia 2school of computer science, the university of sydney, darlington, nsw 2008 オーストラリア 0.76
(Dated:) The intrinsic probabilistic nature of quantum mechanics invokes endeavors of designing quantum generative learning models (QGLMs) with computational advantages over classical ones. (年代:) 量子力学の本質的な確率論的性質は、量子生成学習モデル(QGLM)を古典的モデルよりも計算上の優位性で設計する試みを誘発する。 0.46
To date, two prototypical QGLMs are quantum circuit Born machines (QCBMs) and quantum generative adversarial networks (QGANs), which approximate the target distribution in explicit and implicit ways, respectively. 現在までに、2つの原型QGLMは量子回路Born Machine (QCBM) と量子生成逆ネットワーク (QGAN) であり、それぞれ明示的および暗黙的な方法でターゲット分布を近似している。 0.79
Despite the empirical achievements, the fundamental theory of these models remains largely obscure. 経験的な業績にもかかわらず、これらのモデルの基本理論はほとんど不明である。 0.57
To narrow this knowledge gap, here we explore the learnability of QCBMs and QGANs from the perspective of generalization when their loss is specified to be the maximum mean discrepancy. この知識のギャップを狭めるため,本研究では,qcbms と qgan の学習能力を一般化の観点から検討する。
訳抜け防止モード: この知識ギャップを狭める。 ここでは,一般化の観点からQCBMとQGANの学習可能性を検討する。 彼らの損失は 最大平均的不一致と指定されます
0.69
Particularly, we first analyze the generalization ability of QCBMs and identify their superiorities when the quantum devices can directly access the target distribution and the quantum kernels are employed. 特に,量子デバイスがターゲット分布に直接アクセスでき,量子カーネルが使用される場合に,qcbmsの一般化能力を分析し,その優位性を同定する。 0.84
Next, we prove how the generalization error bound of QGANs depends on the employed Ansatz, the number of qudits, and input states. 次に、QGANの一般化誤差境界が、採用されるAnsatz、クォーディットの数、入力状態に依存することを示す。 0.59
This bound can be further employed to seek potential quantum advantages in Hamiltonian learning tasks. この境界は、ハミルトニアン学習タスクにおいて潜在的量子長所を求めるためにさらに用いられる。
訳抜け防止モード: この境界はさらに活用できる ハミルトンの学習課題に 量子的優位性を求めるのです
0.76
Numerical results of QGLMs in approximating quantum states, Gaussian distribution, and ground states of parameterized Hamiltonians accord with the theoretical analysis. 量子状態、ガウス分布、およびパラメータ化ハミルトンの基底状態の近似におけるQGLMの数値結果は、理論解析と一致する。 0.79
Our work opens the avenue for quantitatively understanding the power of quantum generative learning models. 我々の研究は、量子生成学習モデルのパワーを定量的に理解するための道を開く。
訳抜け防止モード: 私たちの仕事は道を開く 量子生成学習モデルのパワーを定量的に理解することです
0.77
I. INTRODUCTION Learning is a generative activity that constructs its own interpretations of information and draws inferences on them [1]. 私は... 導入 学習は、情報に対する独自の解釈を構築し、それらを推論する生成活動である[1]。 0.56
This comprehensive philosophy sculpts a substantial subject in artificial intelligence, which is designing powerful generative learning models (GLMs) [2, 3] to capture the distribution Q describing the real-world data shown in Fig 1(a). この包括的哲学は、図1(a)に示す実世界データを記述する分布qを捉えるために、強力な生成学習モデル(glms)[2,3]を設計する人工知能における実質的な主題を彫刻する。 0.81
Concisely, a fundamental concept behind GLMs is estimating Q by a tunable probability distribution Pθ. 正確には、GLM の背後にある基本的な概念は、変更可能な確率分布 Pθ によって Q を推定することである。 0.48
In the past decades, a plethora of GLMs, e g , the Helmholtz machine [4], variational auto-encoders [5], and generative adversarial networks (GANs) [6, 7], have been proposed. 過去数十年間,GLM,eg,Helmholtzマシン[4],変分オートエンコーダ[5],およびGAN(Generative Adversarial Network)[6,7]が多数提案されてきた。 0.60
Attributed to the efficacy and flexibility of handling Pθ, these GLMs have been broadly applied to myriad scientific domains and gained remarkable success, including image synthesis and editing [8–10], medical imaging [11], molecule optimization [12, 13], and quantum computing [14–19]. pθ の処理の有効性と柔軟性により、これらの glm は無数の科学領域に広く適用され、画像合成と編集 [8–10]、医用イメージング [11]、分子最適化 [12, 13]、量子コンピューティング [14–19] など、顕著な成功を収めた。 0.77
Despite the wide success, their limitations have recently been recognized from different perspectives. 幅広い成功にもかかわらず、その限界は近年、異なる視点から認識されている。 0.68
Concretely, energy-based GLMs suffer from the expensive runtime of estimating and sampling the partition function [20]; variational auto-encoders tend to produce unrealistic and blurry samples when applied to complex datasets [21]; GANs encounter the issues of model collapse, divergence, and inferior performance of simulating discrete distributions [22–25]. 具体的には、エネルギーベースのGLMは分割関数を推定・サンプリングする高価なランタイムに苦しむ [20]; 変分オートエンコーダは複雑なデータセットに適用すると非現実的で曖昧なサンプルを生成する傾向がある [21]; GANは離散分布をシミュレートするモデル崩壊、発散、および劣った性能に遭遇する [22–25]。 0.78
Envisioned by the intrinsic probabilistic nature of quantum mechanics and the superior power of quantum computers [26–28], quantum generative learning models (QGLMs) are widely believed to further enhance the 量子力学の本質的な確率論的性質と量子コンピュータの優れたパワー [26–28] によって想定される量子生成学習モデル(QGLM)は、量子のさらなる拡張を広く信じられている。 0.76
∗ duyuxuan123@gmail.co m ∗ duyuxuan123@gmail.co m 0.37
ability of GLMs. Concrete evidence has been provided by Refs. GLMの能力。 具体的な証拠はRefsによって提供された。 0.41
[29, 30], showing that when the fault-tolerant quantum computers are available, QGLMs could surpass GLMs with provable quantum advantages such as stronger model expressivity and exponential speedups. [29,30]は、フォールトトレラントな量子コンピュータが利用可能である場合、QGLMはより強力なモデル表現性や指数的スピードアップといった証明可能な量子優位性を持つGLMを超える可能性があることを示している。 0.60
Since faulttolerant quantum computing is still in absence, attention has recently shifted to design QGLMs that can be efficiently carried out on noisy intermediate-scale quantum (NISQ) machines [31–33] with computational advantages on certain tasks [34–37]. フォールトトレラント量子コンピューティングはまだ存在していないため、最近、ノイズの多い中間スケール量子(nisq)マシン [31–33] で効率的に実行できるqglmの設計に注目が集まっている [34–37] 。 0.81
Toward this goal, a leading strategy is constructing QGLMs through variational quantum algorithms [38, 39]. この目標に向けて、変分量子アルゴリズム[38, 39]によるQGLMの構築を主導する戦略である。
訳抜け防止モード: この目標に向かって、主要な戦略は 変分量子アルゴリズムによるQGLMの構築 [38, 39 ]
0.89
These QGLMs can be mainly divided into two categories, depending on whether the probability distribution Pθ is explicitly formulated or not. これらのQGLMは、確率分布 Pθ が明示的に定式化されているか否かによって、主に2つのカテゴリに分けられる。 0.59
For the explicit QGLMs, a variational quantum Ansatz ˆU (θ) (a.k.a., parameterized quantum circuit [40]) forms the distribution Pθ. 明示的なqglmに対しては、変分量子アンサッツ su (θ) (a.k.a., parameterized quantum circuit [40]) が分布 pθ を形成する。 0.78
Primary protocols belonging to this class are quantum circuit Born machines (QCBMs) [41–44], quantum variational auto-encoders [45], and quantum Boltzmann machines [46, 47]. このクラスに属する主要なプロトコルは量子回路ボーンマシン(QCBM) [41–44]、量子変分オートエンコーダ [45]、量子ボルツマンマシン [46, 47]である。 0.80
As for the implicit QGLMs, a mainstream protocol is quantum generative adversarial networks (QGANs) [48–57]. 暗黙のqglmについて、主流のプロトコルは量子生成逆ネットワーク (qgans) [48–57] である。 0.70
Different from QCBMs, the Ansatz ˆU (θ) in QGANs implicitly constructs Pθ in the sense that the output of the quantum circuit amounts to an example sampled from Pθ [58]. QCBM と異なり、QGAN のアンザッツ (θ) は、量子回路の出力が Pθ [58] からサンプリングされた例に等しいという意味で Pθ を暗黙的に構成する。 0.75
Extensive experimental studies have demonstrated the feasibility of QGLMs for different learning tasks, e g , image generation [50, 59], state approximation [34, 60], and drug design [61, 62]. 大規模実験により,QGLMsの学習課題,例えば画像生成 [50, 59],状態近似 [34, 60],薬物設計 [61, 62] の実現可能性が確認された。 0.75
A crucial vein in quantum machine learning [27] is understanding the learnability of a given quantum learning model from the perspective of generalization [63, 64]. 量子機械学習 [27] において重要な要素は、一般化 [63, 64] の観点から、与えられた量子学習モデルの学習可能性を理解することである。 0.78
A QGLM with good generalization means that the population distance between Pθ and Q is closed to the empirical distance between the empirical distributions of Pθ and Q [65, 66]. よい一般化を持つ qglm は、pθ と q の間の人口距離が pθ と q [65, 66] の経験的分布の間の経験的距離に閉ざされることを意味する。 0.74
In this respect, generalization can この点で 一般化は 0.56
英語(論文から抽出)日本語訳スコア
2 FIG. 1: The paradigm of quantum generative learning models. 2 FIG. 1: 量子生成学習モデルのパラダイム。 0.56
(a) The data explored in generative learning includes both classical and quantum scenarios. (a) 生成学習で探索されたデータは、古典的シナリオと量子的シナリオの両方を含む。 0.65
(b) The approaches of QGLMs to access target data distribution Q. When Q is classical, QGLMs operate its samples on the classical side or encode its samples into quantum circuits. (b) Q が古典的な場合、QGLM は古典的な側でサンプルを動作させるか、量子回路にサンプルをエンコードする。
訳抜け防止モード: (b)qglmsのアプローチ qが古典的な場合、ターゲットデータ分布qにアクセスする。 qglmsはそのサンプルを古典的側面で操作するか、またはそのサンプルを量子回路にエンコードする。
0.68
When Q is quantum, QGLMs may directly access it without sampling. Q が量子であるとき、QGLM はサンプリングなしで直接アクセスすることができる。 0.69
(c) The paradigm of QCBMs with MMD loss. (c)MD損失を伴うQCBMのパラダイム。 0.70
The left and right panels depict the setup of classical and quantum kernels, respectively. 左パネルと右パネルはそれぞれ古典カーネルと量子カーネルのセットアップを描いている。 0.70
(d) The scheme of QGANs with MMD loss for the continuous distribution Q. (d)連続分布Qに対するMD損失を伴うQGANのスキーム。 0.75
(e) QAOA, hardware-efficient, and tensor-network based Ans¨atze are covered by ˆU (θ) in Eq (3). (e) QAOA, ハードウェア効率, テンソルネットワークに基づく Ans satze は Eq (3) において θU (θ) で被覆される。 0.69
(f) The metrics exploited in QGLMs to measure the discrepancy between the generated and target distributions. (f) 生成した分布と対象分布の差を測定するために,QGLMを用いて測定した。 0.71
(g) When Q and k(·,·) are both quantum, QGLMs may attain generalization advantages over classical GLMs. (g) Q と k(·,·) が共に量子であるとき、QGLM は古典的 GLM よりも一般化の優位性が得られる。 0.79
not only be used to evaluate the performance of different QGLMs, but also provides guidelines to design QGLMs with computational advantages. 異なるQGLMの性能を評価するために使われるだけでなく、計算上の利点でQGLMを設計するためのガイドラインも提供する。 0.70
Despite the importance, prior literature related to the generalization theory of QGLMs is very few, which is sharply contrast with quantum discriminative learning [67–73]. この重要性にもかかわらず、QGLMsの一般化理論に関する先行文献はほとんどなく、量子識別学習 [67–73] と鋭く対照的である。 0.77
Specifically, Ref. [74] showed that the unbounded loss function facilitates the training of QGLM without barren plateaus [75, 76], and Ref. 特に、Ref。 74] では, 非拘束損失関数は不毛高原 [75, 76] および ref を伴わずにqglmの訓練を促進できることが示された。 0.66
[77] showed that the quantum Bayesian networks have a higher expressive power than their classical counterparts. [77]は、量子ベイズネットワークが古典的ネットワークよりも表現力が高いことを示した。 0.76
The key challenges in demystifying the generalization of QGLMs are imposed by two factors: as depicted in Fig 1(a)-(f), the distribution Q for QGLMs, the way of implementation of QGLMs, and the selection of the objective function and the employed Ansatz are diverse; the evaluation of the distance between Pθ and Q is intricate due to the curse of dimensionality. 図1(a)-(f)に示すように、QGLMの分布Q、QGLMの実装の仕方、目的関数と採用アンザッツの選択は様々であり、PθとQ間の距離の評価は次元の呪いによって複雑になる。
訳抜け防止モード: QGLMの一般化を決定づける重要な課題は、図1(a)-(f)に示すように、2つの要因によって課される。 QGLMの分布Q、QGLMの実装方法 そして、目的関数と使用されるAnsatzの選択は様々である。 Pθ と Q の間の距離の評価は次元の呪いによって複雑になる。
0.74
To shrink the above knowledge gap, here we understand the learnability of QGLMs with the maximum mean discrepancy (MMD) [78]. 上記の知識ギャップを縮小するには,最大平均不一致 (mmd) [78] を持つqglmの学習可能性を理解する。 0.76
The attention on MMD loss originates from the fact that many QGLMs employ it as the loss function to measure the difference of two distributions [42–44, 51]. MMD損失に対する注意は、多くのQGLMが2つの分布 [42–44, 51] の差を測定するために損失関数として使用しているという事実に起因している。 0.71
Through the lens of the statistical learning theory [79], we separately unveil the power of QGLMs towards discrete and continuous distributions. 統計学習理論[79]のレンズを通して,離散分布と連続分布に対するqglmのパワーを別々に明らかにする。 0.84
That is, when Q is discrete and can be efficiently accessed by quantum machines, we prove that quantum kernels can greatly benefit the generalization ability of QCBMs つまり、q が離散的であり、量子マシンによって効率的にアクセスできるとき、量子カーネルは qcbms の一般化能力に大いに貢献できることを証明できる。 0.76
over their classical counterparts. Meanwhile, to attain the similar generalization error, the required computational overhead for QCBM with classical kernels is significantly larger than that of QCBM with quantum kernels. 古典派と対立する。 一方、同様の一般化誤差を達成するために、古典的なカーネルを持つQCBMの計算オーバーヘッドは量子カーネルを持つQCBMよりもはるかに大きい。 0.68
This separation advocates to use quantum kernels to underscore potential quantum advantages of QGLMs. この分離は量子カーネルを用いてQGLMの潜在的な量子上の利点を浮き彫りにする。 0.63
When Q is continuous, we connect the generalization with model expressivity and then leverage a statistical tool—covering number, to quantify the generalization of QGANs. Q が連続であるとき、一般化をモデル表現性と結び付けて、QGAN の一般化を定量化するために統計ツール、探索数を利用する。 0.69
Concisely, we prove that the generalization error of QGAN 正確には、QGANの一般化誤差が証明される。 0.64
is upper bounded by O(1/n + 1/m + N dk(cid:112)NgtNge/n) , 上界は O(1/n + 1/m + N dk(cid:112)NgtNge/n) である。 0.74
where n, m, d, k, Nge, and Ngt refer to the number of referenced samples, the number of training examples, the dimension of a qudit, the type of quantum gates, the number of encoding gates, and the number of trainable parameters, respectively. n, m, d, k, Nge, Ngt は、参照されたサンプルの数、トレーニングの例の数、qudit の次元、量子ゲートのタイプ、エンコーディングゲートの数、トレーニング可能なパラメータの数を表す。 0.57
This bound explicitly exhibits how the encoding strategy and the adopted Ansatz affect the generalization error, which can not only provide practical guidance in designing advanced QGANs, but also contributes to discover potential advantages of QGLMs. この境界は、符号化戦略とアンサッツが一般化誤差にどのように影響するかを明確に示しており、これは先進qganの設計に実用的なガイダンスを提供するだけでなく、qglmの潜在的な利点の発見にも寄与する。 0.54
II. MAIN RESULTS To better present our main results, let us first recap QCBMs and QGANs, introduce the maximum mean discrepancy loss and the measure of generalization, and exhibit some properties of QGLMs with MMD loss. II。 主な成果 まず,QCBMとQGANの最大誤差損失と一般化の尺度を導入し,MDM損失を伴うQGLMの特性を示す。
訳抜け防止モード: II。 主な成果 私たちの主な成果をよりよく提示するために。 まずQCBMとQGANをまとめてみましょう。 そして、一般化の尺度と、MD損失を伴うQGLMのいくつかの性質を示す。
0.66
(d)QGAN|"⟩ %(') (d)QGAN|" %(') 0.27
(f)Metric (g)Quantum advantageℚ+ErrQGLMsGLMs(e)Ansat zes %()) %())KernelsQNNDNNℙ!"ℚ#(c)QCBM|0⟩ℚ#ℙ!" +(,)ℚℙ$ %())|0⟩|0⟩|0⟩|0⟩|0⟩|0⟩|0⟩ %()) (f)メートル法 (g)quantum advantageq+errqglmsglms(e)ansat zes %() %())kernelsqnndnnp!"q#(c)qcbm|0>q#p!" +(,)qp$ %()|0,|0,|0,|0,|0,|0,|0,|0> %() 0.60
英語(論文から抽出)日本語訳スコア
QCBMs. The paradigm of QCBM is shown in Fig 1(c). QCBM。 QCBMのパラダイムは図1(c)に示される。 0.72
Specifically, an N -qubit Ansatz ˆU (θ) with θ ∈ Θ is applied to a fixed input state ρ0 = (|0(cid:105)(cid:104)0 |)⊗N to form the parameterized distribution Pθ ∈ PΘ. 具体的には、θ ∈ > の N ビットアンサッツ(θ) を固定入力状態 ρ0 = (|0(cid:105)(cid:104)0 |) =N に適用し、パラメータ化された分布 Pθ ∈ P を成す。 0.77
The probability of sampling i ∈ [2N ] over the distribution Pθ yields 分布 pθ 上のサンプリング i ∈ [2n ] の確率は 0.78
† Pθ(i) = Tr(Πi ˆU (θ)ρ0 ˆU (θ) シュ・Pθ(i) = Tr(シュイ・シュウ(θ)ρ0 シュウ(θ) 0.76
), (1) θ (i) =(cid:80)n ), (1) θ (i) = (cid:80)n 0.40
where Πi = |i(cid:105)(cid:104)i | refers to the projector of the computational basis i. i = |i(cid:105)(cid:104)i | は計算基底 i のプロジェクターを指す。 0.70
Given n examples {x(j)}n j=1 sampled from Pθ, its empirical distribution is defined as Pn j=1 δx(j) n 個の例 {x(j)}n j=1 が Pθ からサンプリングされると、その経験的分布は Pn j=1 δx(j) と定義される。 0.69
(i)/n with δ(·)(·) being the indicator. (i)/n は δ(·)(·) を指標とする。 0.80
QGANs. The schematic of QGANs is shown in Fig 1(d). qgans。 QGANsの図式は図1(d)に示される。 0.48
An N -qubit Ansatz ˆU (θ) is used to realize the generator Gθ(·), which maps an example z sampled from a prior distribution PZ to the generated example x, i.e., x := Gθ(z) ∈ R2N . 生成元 Gθ(·) は、前の分布 PZ からサンプリングされた例 z を生成された例 x 、すなわち x := Gθ(z) ∈ R2N に写す。
訳抜け防止モード: 生成元 Gθ ( · ) を実現するために、N-量子アンサッツU ( θ ) を用いる。 これは、前の分布 PZ からサンプリングされた例 z を生成された例 x にマッピングする。 すなわち x : = Gθ(z ) ∈ R2N である。
0.69
Formally, the j-th component of x yields 正式には、x の j 番目の成分は 0.56
xj = Tr(Πj ˆU (θ)ρz ˆU (θ) xj = tr(πj ]u(θ)ρz(θ) 0.44
† ), ∀j ∈ [2N ], † ), sj ∈ [2N ] である。 0.60
(2) where ρz refers to the encoded quantum state of z. (2) ρzはzの符号化された量子状態を指す。 0.57
Given n examples {x(i)}n i=1, its empirical distribution is Pn i=1 δx(i)(dx)/n. n 個の例 {x(i)}n i=1 が与えられると、その経験分布は pn i=1 δx(i)(dx)/n となる。 0.70
Notably, when Q is discrete, the mechanism of QGANs is equivalent to QCBMs (refer to SM A for details). 特に、Q が離散であるとき、QGAN のメカニズムは QCBM と等価である(詳細は SM A を参照)。 0.78
Due to this reason, in this study we only focus on applying QGANs to estimate the continuous distribution Q. このため、本研究では、連続分布 Q を推定するために QGAN を適用することのみに焦点を当てる。 0.77
i=1 produced by {Gθ(z(i))}n gθ(z(i))}n による i=1 の生成 0.83
θ (dx) = (cid:80)n θ (dx) = (cid:80)n 0.49
Throughout the whole study, the Ansatz employed in 研究全体を通して、アンザッツが雇用した 0.55
both QCBMs and QGANs takes the generic form QCBMとQGANの両方がジェネリックフォームを取る 0.73
ˆU (θ) = ˆUl(θ), θ (θ) = アール(θ)。 0.43
(3) l=1 where θ are trainable parameters living in the parameter space Θ, ˆUl(θ) ∈ U(dk) refers to the l-th quantum gate operated with at most k-qudits with k ≤ N , and U(dk) denotes the unitary group in dimension dk (d = 2 for qubits) [80]. (3) l=1 θ がパラメータ空間 θ 内に存在する訓練可能なパラメータであるとき、sul(θ) ∈ u(dk) は k ≤ n の最大 k-キューディットで操作される l 番目の量子ゲートを指し、u(dk) は次元 dk (d = 2 for qubits) [80] のユニタリ群を表す。 0.53
The form of ˆU (θ) covers almost all Ans¨atze in VQAs and some constructions are given in Fig 1(e). θ の形式は VQA のほとんどすべての Ans satze をカバーし、いくつかの構成は図 1(e) で与えられる。 0.70
Maximum Mean Discrepancy. Suppose that an unknown distribution Q and a parametrized family of model distributions PΘ on the same space. 最大の相違点。 未知の分布 Q とモデル分布のパラメトリケート族が同じ空間上の P = を仮定する。 0.63
The maximum mean discrepancy (MMD) loss [78], which measures the difference between Pθ ∈ PΘ and Q, is MMD2(Pθ || Q) = E(k(x, x(cid:48))) + E(k(y, y(cid:48))) − 2 E(k(x, y)), where the expectations are taken over the randomness of x, x(cid:48) ∼ Pθ and y, y(cid:48) ∼ Q, and k(·,·) denotes a predefined kernel (e g , linear and radial basis function (RBF) kernels). pθ ∈ pθ と q の差を測定する最大平均差 (mmd) 損失 [78] は mmd2(pθ || q) = e(k(x, x(cid:48)) + e(k(y, y(cid:48)) − 2 e(k(x, y)) であり、ここでは x, x(cid:48) のランダム性と y, y(cid:48) の pθ と y, y(cid:48) のランダム性、そして k(·,·) は事前定義された核(例えば、線形基底関数 (rbf) の核)を表す。 0.84
Without loss of generality, we assume maxθ∈Θ MMD2(Pθ || Q) ≤ C1 一般性を失うことなく、maxθθθ mmd2(pθ || q) ≤ c1 と仮定する。 0.62
with C1 being a constant. C1が定数であること。 0.69
QGLMs aim to find an estimator minimizing MMD loss, QGLMはMDM損失を最小限に抑える推定器を見つけることを目指している。 0.53
ˆθ = arg min θ∈Θ 阿θ = arg min θが表示された。 0.42
MMD2(Pθ || Q). MMD2(Pθ || Q)。 0.80
(4) If the distribution Pθ and Q can not be accessed directly, the evaluation of expectation becomes intractable and we instead consider the empirical MMD loss, as (4) 分布 Pθ と Q が直接アクセスできない場合、期待値の評価は難解になり、代わりに経験的MDD損失を考慮する。 0.56
Ng(cid:89) Ng(cid:89) 0.42
3 (cid:80)n 3 (cid:80)n 0.42
(cid:80) (cid:80)m (cid:80) (cid:80)m 0.41
an unbiased estimator of the MMD loss proposed by [78], i.e., MMD2 )) + i,j k(x 78]、すなわちMDD2 )) + i,j k(x)によって提案されるMDD損失のバイアスのない推定器
訳抜け防止モード: 78]によって提案されたMDM損失の偏りのない推定器 i, MMD2 ) ) + i , j k(x)
0.76
(i), y (j)). The m(m−1) minimizer of MMD2 (i)y (j)。 MMD2のm(m−1)最小化器 0.32
U (P1 || P2) := 1 n(n−1) )) − 2 U (P1 || P2) := 1 n(n−1) ) − 2 0.48
j(cid:54)=j(cid:48) k(y(j), y(j j(cid:54)=j(cid:48) k(y(j), y(j) 0.46
i(cid:54)=i(cid:48) k(x(i), x(i i(cid:54)=i(cid:48) k(x(i), x(i) 0.46
nm 1 (cid:48) nm 1 (cid:48) 0.41
(cid:48) U yields (cid:48) U yields 0.41
(n,m) ˆθ = arg min θ∈Θ (n,m) ˆθ =arg min θ発言 0.39
MMD2 U (Pn MMD2 ウ(Pn) 0.58
θ || Qm), (5) θ || Qm)。 (5) 0.66
where Pn θ and Qm separately refers to the empirical distribution of Pθ and Q defined above. Pn θ と Qm は別々に、上記の Pθ と Q の経験的分布を指す。 0.83
See SM B for optimizing QCBMs and QGANs using MMD loss. MMD損失を用いたQCBMとQGANの最適化のためのSMBを参照。 0.67
We follow the classical routine [81] to define the generalization error of QGLMs as follows. 古典的ルーチン[81]に従って、QGLMの一般化誤差を次のように定義する。 0.73
When either the kernel or the target distribution Q is classical, the generalization error of QGLMs yields カーネルまたは対象分布 Q が古典的であるとき、QGLMs の一般化誤差が生じる。 0.84
RC = MMD2(P ˆθ RC = MMD2(P >θ) 0.38
(n,m) || Q) − inf θ∈Θ (n,m) || Q) − inf θ発言 0.43
MMD2(Pθ || Q). MMD2(Pθ || Q)。 0.80
(6) When the kernel k(·,·) is quantum [82] and the distribution Q can be efficiently accessed by quantum machines, the generalization error of QGLMs yields (6) カーネル k(·,·) が量子 [82] であり、分布 Q が量子機械によって効率的にアクセスできるとき、QGLMs の一般化誤差が生じる。
訳抜け防止モード: (6) 核 k ( ·, · ) が量子 [ 82 ] であるとき 分散Qは量子マシンによって効率的にアクセスすることができる。 QGLMsの収率の一般化誤差
0.65
RQ = MMD2(Pˆθ || Q) − inf θ∈Θ RQ = MMD2(P'θ || Q) − inf θ水 0.38
MMD2(Pθ || Q). MMD2(Pθ || Q)。 0.80
(7) Intuitively, both RC and RQ evaluate the divergence of the estimated and the optimal MMD loss, where a lower RC or RQ implies a better learning performance. (7) 直感的には、RCとRQの両方が推定値と最適MDD損失のばらつきを評価し、低いRCまたはRQはより優れた学習性能を示す。 0.62
Quantum kernel in MMD loss. MMD損失における量子カーネル 0.78
The choice of the kernel k(·,·) in Eq (4) is flexible. Eq (4) における核 k(·,·) の選択は柔軟である。 0.66
As shown in the right panel of Fig 1(c), when it is specified to be the quantum kernel (e g , the linear kernel) and Q can be directly accessed by QGLMs (i.e., Q can be efficiently prepared by a quantum state), the corresponding MMD loss can be efficiently calculated. 図1(c)の右パネルに示すように、量子カーネル(例えば、線形カーネル)であると特定された場合、QはQGLMによって直接アクセス可能である(すなわち、Qは量子状態によって効率的に準備できる)、対応するMDM損失を効率的に計算することができる。 0.81
Lemma 1. Suppose the distribution Q can be directly accessed by QGLMs. レマ1号。 分布 Q が QGLM によって直接アクセス可能であると仮定する。 0.62
When the quantum kernel is adopted, the MMD loss in Eq (4) can be estimated within an error  in O(1/2) sample complexity. 量子カーネルを採用すると、Eq (4)のMDD損失はO(1/)サンプルの複雑さの誤差 > の範囲内で推定できる。 0.80
The proof of Lemma 1 is provided in SM C. This lemma delivers a crucial message such that when both 補題1の証明はsm cで提供されている。
訳抜け防止モード: SMCにはLemma1の証明が設けられている。 この補題は双方が重要なメッセージを提供する
0.67
k(·,·) and Q are quantum, MMD2(Pθ || Q) can be effi- k(·,·) と Q は量子であり、MDD2(Pθ || Q) は effi である。 0.83
ciently estimated by QGLMs in which the runtime cost is independent of the dimension of data space. ランタイムコストがデータ空間の次元に依存しないQGLMによって、よく推定される。 0.79
In contrast, for GLMs, the runtime cost of calculating the MMD loss polynomially scales with the sample size n and m. 対照的に、GLM の場合、MDM 損失計算のランタイムコストは、サンプルサイズ n と m で多項式スケールする。 0.68
Such runtime discrepancy warrants the good performance of QGLMs explained in the subsequent context. このようなランタイムの不一致は、その後の文脈で説明されるQGLMの優れたパフォーマンスを保証する。 0.47
A. Generalization of QCBMs A.QCBMの一般化 0.77
A central topic in QCBMs is understanding whether quantum kernels can provide generalization advantages over classical ones. QCBMにおける中心的なトピックは、量子カーネルが古典的カーネルよりも一般化の利点を提供できるかどうかを理解することである。
訳抜け防止モード: QCBMにおける中心的なトピックは 量子カーネルが古典的カーネルよりも 一般化の利点を提供できるかどうかを理解することです
0.57
The following theorem provides a positive affirmation whose proof is postponed to SM D. 次の定理は、証明をSM D に延期する正の肯定を与える。 0.64
英語(論文から抽出)日本語訳スコア
4 FIG. 2: Simulation results of QCBM. 4 FIG.2:QCBMのシミュレーション結果。 0.58
(a) The implementation of QCBMs when N = 6. (a) N = 6のときのQCBMの実装 0.74
The label ‘L1 − 1’ refers to repeating the architecture highlighted by the brown color L1 − 1 times. ラベルの「L1 − 1」は、茶色のL1 − 1倍に強調されたアーキテクチャを繰り返すことを指す。 0.78
The gate U (θl i) refers to the RY gate applied on the i-th qubit in the l-th layer of Ansatz ˆU (θ). ゲート U (θl i) は、アンサッツ・シュウ (θ) の l 番目の層の i 番目の量子ビットに適用される RY ゲートを指す。 0.74
(b) The visualization of a two-qubit GHZ state. (b)2量子ビットghz状態の可視化。 0.67
(c) The upper and lower panels separately show the simulation results of QCBMs in the task of estimating the discrete Gaussian distribution when N = 8 and N = 12. (c) 上下パネルは, N = 8 および N = 12 のときの離散ガウス分布を推定するタスクにおいて, QCBM のシミュレーション結果を別々に示す。 0.85
The labels ‘Q’, PQ θ , n’, stand for the target distribution, the output of QCBM with the quantum kernel, and the output of QCBM with the RBF kernel and n samples, respectively. ラベル 'Q' と PQ θ , n' はそれぞれ、ターゲット分布、量子カーネルによるQCBMの出力、RBFカーネルとnサンプルによるQCBMの出力を表す。 0.65
The inner plots evaluate the statistical performance of QCBM through KL divergence, where the x-axis labels the number of examples n. 内部プロットは、X軸が例nの数をラベル付けするKL分散によるQCBMの統計的性能を評価する。 0.72
(d) The four box-plots separately show the simulation results of QCBM in the task of approximating N -qubit GHZ state with N = 4, 6, 8, 10. (d) 4つのボックスプロットは, N = 4, 6, 8, 10でN-qubit GHZ状態を近似するタスクにおいて, QCBMのシミュレーション結果を示す。 0.91
The y-axis refers to the fidelity. y軸は忠実度を指す。 0.62
The x-axis refers to the applied kernels in QCBM, where the label ‘Q’ represents the quantum kernel and the rest four labels refers to the RBF kernel with n samples. x軸はQCBMの応用カーネルを指し、そこでは「Q」というラベルは量子カーネルを表し、残りの4つのラベルはn個のサンプルを持つRBFカーネルを指す。 0.75
θ , ‘PG θ , ‘pg である。 0.49
Theorem 1. Following the settings in Lemma 1, when the employed kernel k(·,·) can either be realized by quantum or classical machines, with probability at least 1 − δ, the generalization error of QCBMs yields 理論1。 補題 1 の設定に従えば、使用済みのカーネル k(·,·) が少なくとも 1 − δ の確率で量子または古典機械によって実現できるとき、qcbms の一般化誤差は生じる。
訳抜け防止モード: 理論1。 Lemma 1の設定に従うと、採用されているカーネル k ( ·, · ) が利用できる。 少なくとも 1 − δ の確率で、量子機械か古典機械で実現される QCBMの収率の一般化誤差
0.73
(cid:114) (cid:112) (系統:114) (出典:112) 0.67
(cid:114) RQ ≤ RC ≤ C1 (系統:114) rq ≤ rc ≤ c1 である。 0.61
8 n + 8 m C2(2 + 8n + 8m c2(2 + ) 0.39
log 1 δ ), (8) ログ 1 δ ), (8) 0.46
where C1 ≥ maxθ MMD2(Pθ || Q) and C2 = supx k(x, x). ここで C1 ≥ maxθ MMD2(Pθ || Q) と C2 = supx k(x, x) である。 0.80
It indicates that when Q is quantum, the generalization error of QCBMs with the quantum kernel is strictly lower than its classical counterparts. Q が量子であるとき、QCBM の量子核との一般化誤差は古典的よりも厳密に低いことを示す。 0.81
Remarkably, most tasks in quantum many body physics and quantum information processing satisfy the requirement of directly accessing the target distribution Q [34]. 量子物理学や量子情報処理におけるほとんどのタスクは、ターゲット分布 Q[34] に直接アクセスする要求を満たす。 0.78
In consequence, QCBMs may achieve generalization advantages in these regimes. その結果、QCBMはこれらの体制において一般化の優位性を達成することができる。 0.45
In addition, the upper bound in Eq (8) underlies that the decisive factor to improve generalization of QCBMs is simultaneously increasing n and m. さらに、Eq (8) の上界は、QCBMs の一般化を改善する決定要因が同時に n と m の増加であることを示している。 0.80
As such, for QCBMs with classical kernels, there exists a tradeoff between the generalization and the runtime complexity, which is not the case for quantum kernels warranted by Lemma 1. したがって、古典的なカーネルを持つQCBMに対して、一般化と実行時複雑性の間にはトレードオフがあり、これはLemma 1で保証される量子カーネルには当てはまらない。 0.68
Besides, the factor C2 suggests that the choice of kernels also effects the generalization of QCBMs. さらに、C2因子は、カーネルの選択がQCBMの一般化にも影響を与えることを示唆している。 0.64
As with quantum discriminative learning models [70], the factor C1 connects the expressivity of QCBM with its generalization 量子識別学習モデル[70]と同様、C1因子はQCBMの表現率と一般化を結合する。 0.85
in the sense that Ansatz with an overwhelmed expressivity may degrade the generalization. 圧倒的な表現性を持つアンサッツは一般化を劣化させる可能性がある。 0.49
All of these observations provide a practical guidance of designing QCBMs. これらの観測はすべて、QCBMを設計するための実践的なガイダンスを提供する。 0.56
Remark. In SM E, we partially address another long standing problem in the quantum generative learning theory, i.e., whether QCBMs are superior to classical GLMs with better performance. コメント。 SM E では、量子生成学習理論において、QCBM が古典的な GLM よりも優れた性能を持つかどうかという問題に部分的に対処する。 0.58
Concisely, we show that for cer- 簡潔に言えば、cerにとってそれは 0.31
tain Q, QCBMs can attain a lower inf θ∈Θ MMD2(Pθ || Q) tain q, qcbms は低い inf θθθ mmd2(pθ || q) が得られる。 0.68
over a typical GLM– restricted Boltzmann machine [83], which may lead to a better generalization ability. 典型的な GLM-制限ボルツマンマシン [83] 上で、より優れた一般化能力をもたらす。 0.76
We conduct numerical simulations to examine the potential advantages of QCBMs as claimed in Theorem 1. Theorem 1 で主張されている QCBM の潜在的な利点を数値シミュレーションにより検証する。 0.78
The first task is applying QCBMs to estimate the discrete Gaussian distribution N(N, µ, σ) [42, 44], where N specifies the range of events with x ∈ [2N ], and µ and σ refer to the mean and variance, respectively. 最初のタスクは、離散ガウス分布 n(n, μ, σ) [42, 44] を推定するために qcbms を適用することである。
訳抜け防止モード: 最初のタスクは、離散ガウス分布 N(N,) を推定するために QCBM を適用することである。 µ, σ ) [ 42, 44 ], where N は x ∈ [ 2N ] で事象の範囲を指定する。 μ と σ はそれぞれ平均と分散を表す。
0.87
An intuition of N(N, µ, σ) is shown in Fig 2(c), labeled by Q. The hyperparameter settings are as follows. N(N, μ, σ) の直観は Q でラベル付けされた図 2(c) に示される。
訳抜け防止モード: N(N, μ, σ ) の直観は、図 2(c ) に示される。 ハイパーパラメータの設定は以下のとおりです。
0.65
For all simulations, we fix µ = 1 and σ = 8. 全てのシミュレーションに対して μ = 1 と σ = 8 を固定する。 0.84
There are two settings of the qubit count, i.e., N = 8, 12. キュービット数の設定は2つあり、すなわち N = 8, 12 である。 0.74
The quantum kernel and RBF kernel are adopted to compute the MMD loss. 量子カーネルとRBFカーネルはMD損失を計算するために採用されている。 0.66
For RBF kernel, the number of samples is set as n = 100, 1000, and ∞. RBF カーネルの場合、サンプルの数は n = 100, 1000, ∞ と設定される。 0.73
The employed Ansatz of QCBM is depicted in Fig. 2(a) with L1 = 8 for N = 8 and L1 = 12 for N = 12. qcbm のアンサッツは図 2(a) に表され、l1 = 8 は n = 8 で、l1 = 12 は n = 12 で表される。 0.79
The maximum number of iterations is T = 50. イテレーションの最大数はt = 50である。 0.77
For each N = 8KLDivergence1.281.2 10.830.590.180.07N =12KLDivergence4.23.8 4.34.01.601.67N = 4N = 6N = 10|0iU(✓l1)U(✓L1)|0iU(✓l2)U(✓L2)|0iU(✓l3)U(✓L3)|0iU(✓l4)U(✓L4)|0iU(✓l5)U(✓L5)|0iU(✓l6)U(✓L6)×𝑳𝟏−𝟏(𝒂)(𝒄)(𝒅)(𝒃)0.990.990.900.960.9 70.990.990.710.870.9 2N = 80.990.990.560.890.9 2N = 100.930.930.570.460. 62 それぞれに N = 8KLDivergence1.281.2 10.830.590.180.07N = 12KLDivergence4.23.8 4.34.01.601.67N = 4N = 6N = 10|0iU(「l」)U(「L」)|0iU(「l」)U(「l」)|0iU(「l4」)U(「l4」)|0iU(「l4」)U(「l4」)|0iU(「l5」)U(「L5」)|0iU(「l6」)U(「l6」)×L1−1(「c」(c)(d)(b)0.990.990.9 60.990.99.70717092N = 80.90.90.90.90.62.62 ) 0.42
英語(論文から抽出)日本語訳スコア
setting, we repeat the training 5 times to get a better understanding of the robustness of the results. 設定では、結果の堅牢性をよりよく理解するために、トレーニングを5回繰り返します。 0.71
The simulation results of QCBMs are illustrated in Fig. 2(c). QCBMのシミュレーション結果を図2(c)に示す。 0.65
The two outer plots exhibit the approximated distributions under different settings. 2つの外側プロットは異なる条件下で近似分布を示す。 0.73
In particular, for both N = 8, 12, the approximated distribution generated by QCBM with the quantum kernel well approximates Q. In the measure of KL divergence, the similarity of these two distributions is 0.18 and 1.6 for N = 8, 12, respectively. 特に、n = 8, 12 において、qcbm と量子核の井戸によって生成される近似分布は q に近似する。 kl の発散の測度において、これらの二つの分布の類似性は、それぞれ n = 8, 12 に対して 0.18 と 1.6 である。
訳抜け防止モード: 特に、2つの N = 8, 12 に対して、量子核と QCBM によって生成される近似分布は Q をよく近似する。 これら2つの分布の類似性は N = 8 に対して 0.18 と 1.6 である。 12であった。
0.81
In contrast, when the adopted kernels are classical and the number of measurements is finite, QCBMs encounter the inferior performance. 対照的に、採用カーネルが古典的で測定回数が有限である場合、QCBMは性能が劣る。 0.59
Namely, by increasing n and m from 50 to 1000, the KL divergence between the approximated distribution and the target distribution only decreases from 1.28 to 0.59 in the case of N = 8. すなわち、n と m を 50 から 1000 に増やすことで、N = 8 の場合、近似分布と対象分布の間の KL の発散は 1.28 から 0.59 にしか減少しない。 0.83
Moreover, under the same setting, the KL divergence does not manifestly decrease when N = 12, which requires a larger n and m to attain a good approximation as suggested by Theorem 1. さらに、同じ設定下では、n = 12 では kl の発散は顕著に減少せず、定理 1 によって示唆されるように、より大きい n と m が必要となる。 0.74
This argument is warranted by the numerical results with the setting n = m → ∞, where the achieved KL divergence is comparable with QCBM with the quantum kernel. この議論は n = m → ∞ という設定で数値的な結果によって保証され、達成された KL の発散は量子核の QCBM に匹敵する。 0.74
Nevertheless, the runtime complexity of QCBMs with the classical kernel polynomially scales with n and m. それでも、古典的なカーネル多項式を持つQCBMのランタイム複雑性は、n と m でスケールする。 0.59
According to Lemma 1, under this scenario, QCBMs with the quantum kernel embraces the runtime advantages. Lemma 1によると、このシナリオでは、量子カーネルのQCBMはランタイムの利点を受け入れている。 0.62
We next follow Ref. 次にrefに従います。 0.53
[41] to apply QCBMs to accomplish the task of preparing GHZ states, a.k.a., “cat states” [84]. [41]QCBMを適用してGHZ状態、すなわち“cat state”[84]を作成する。
訳抜け防止モード: [41]タスク達成のためのQCBMの適用 GHZ状態, a.k.a. “ cat state ” [84 ] を準備する。
0.79
An intuition is depicted in Fig 2(b). 図2(b)に直観が描かれている。 0.72
The choice of GHZ states is motivated by their importance in quantum information. GHZ状態の選択は、量子情報の重要性によって動機づけられる。 0.77
The formal expression of an N -qubit ⊗N )/√2. 形式式は n -qubit , n )/2 である。 0.64
The hyperGHZ state is |GHZ(cid:105) = (|0(cid:105) parameter settings are as follows. ハイパーGHZ状態は |GHZ(cid:105) = (|0(cid:105) パラメータ設定は以下の通りである。 0.72
The number of qubits is set as N = 4, 6, 8, 10 and the corresponding depth is L1 = 4, 6, 8, 10. 量子ビットの数は N = 4, 6, 8, 10 とし、対応する深さは L1 = 4, 6, 8, 10 とする。 0.82
The other settings are identical to those used in the task of discrete Gaussian approximation. 他の設定は離散ガウス近似のタスクで使われるものと同一である。 0.72
⊗N + |1(cid:105) n + |1(cid:105) 0.37
The simulation results, as illustrated in Fig 2(d), indicate that QCBMs with quantum kernels outperforms RBF kernels when n and m are finite. シミュレーションの結果、Fig 2(d) に示されているように、量子核を持つ QCBM は n と m が有限であるときに RBF カーネルより優れている。 0.69
This observation becomes apparent with an increased N . この観察はnが増加すると明らかになる。 0.65
For all settings of N , the averaged fidelity between the generated states of QCBMs with the quantum kernel and the target |GHZ(cid:105) is above 0.99, whereas the obtained averaged fidelity for QCBMs with the RBF kernel is 0.46 for N = 10 and n = m = 100. N のすべての設定において、量子核を持つ QCBM の生成状態とターゲット |GHZ (cid:105) の間の平均忠実度は 0.99 を超え、RBF 核を持つ QCBM の平均忠実度は N = 10 に対して 0.46 であり、n = m = 100 である。 0.81
Meanwhile, as with the prior task, RBF kernel attain a competitive performance with the quantum kernel unless n = m → ∞, while the price to pay is an unaffordable computational overhead. 一方、以前のタスクと同様に、RBF カーネルは n = m → ∞ でない限り量子カーネルと競合する性能を得るが、支払いのコストは計算上のオーバーヘッドである。 0.71
B. Generalization of QGANs B.QGANの一般化 0.75
QGANs formulated in Eq (2) are specified to be a class of learning protocols estimating the continuous distributions Q and thus only concern RC in Eq (6). Eq(2)で定式化されたQGANは、連続分布Qを推定する学習プロトコルのクラスであり、したがってEq(6)におけるRCのみを懸念する。 0.78
In this scenario, it is of paramount importance of unveiling how the generalization of QGANs depends on uploading methods and the structure information Ansatz. このシナリオでは、QGANの一般化がアップロード方法と構造情報Ansatzに依存するかを明らかにすることが最重要となる。 0.77
The following theorem makes a concrete step toward this goal, where 次の定理はこの目標に向かって具体的な一歩を踏み出し、そこで 0.61
5 the proof is deferred to SM F. Theorem 2. 5 証明はSM F. Theorem 2 に延期される。 0.62
Assume the kernel k(·,·) is C3-Lipschitz. 核 k(·,·) を C3-Lipschitz とする。 0.61
Suppose that the employed quantum circuit ˆU (z) to prepare ρz containing in total Nge parameterized gates and each gate acting on at most k qudits. ngeパラメータ化ゲートと各ゲートを含むρzを、最大kクウディッツに作用させるために用いられる量子回路 su (z) を仮定する。 0.75
Following notations in Eqs. Eqsの表記に従う。 0.75
(5) and (6), with probability at least 1 − δ, the generalization error of QGANs, RC in Eq (2) is upper bounded by (5) と (6) は、少なくとも 1 − δ の確率で、Eq (2) における QGANs, RC の一般化誤差は上界である。 0.87
144dk(cid:112)Ngt + Nge 144dk(cid:112)Ngt + Nge 0.43
(cid:114) 8 (系統:114) 8 0.54
8C 2 2 (n + m) 8C 2 2(n + m) 0.43
nm n − 1 where C2 = supx k(x, x), C4 = N ln(1764C 2 1. nm n − 1 ここで c2 = supx k(x, x), c4 = n ln(1764c 2 1 である。 0.68
ln + 1 δ 48 n − 1 ln + 1 δ 48n − 1 0.42
+ C4, (9) 3 nNgeNgt) + + C4。 (9) 3 nNgeNgt) + 0.42
The results of Theorem 2 describe how different components in QGANs effect the generalization bound and convey four-fold implications. Theorem 2 の結果は、QGAN の異なる成分が一般化境界にどのように影響し、四重の含意を伝達するかを記述している。
訳抜け防止モード: 定理2の結果は qgans の異なる成分は一般化に効果を及ぼし、4-畳み込みを伝達する。
0.64
First, according to the first term in the right hand-side of Eq (G2), to achieve a tight upper bound of RC, the ratio between the number of examples sampled from Q and P should satisfy m/n = 1. まず、Eq (G2) の右辺の最初の項によれば、RC の厳密な上界を達成するためには、Q と P のサンプル数の間の比は m/n = 1 を満たすべきである。 0.78
In this case, the generalization error linearly decreases and finally converges to zero with the increased n or m. この場合、一般化誤差は線型に減少し、最終的に増大した n または m で 0 に収束する。 0.73
Second, RC linearly depends on the kernel term C2, exponentially depends on k in Eq (3), and sublinearly depends on the number of trainable quantum gates Ngt. 第二に、rc は核項 c2 に依存し、指数関数は eq (3) の k に依存し、sublinear は訓練可能な量子ゲート ngt の数に依存する。 0.77
These observations underpin the importance of controlling the expressivity of the adopted Ansatz and selecting proper kernels to ensure both the good learning performance and generalization of QGANs. これらの観察は、適切なカーネルを選択して、優れた学習性能とQGANの一般化の両立を保証することが重要である。 0.63
Third, the way of preparing ρz is a determinant factor in generalization of QGANs. 第3に、ρz の生成方法は QGAN の一般化における決定要因である。 0.71
In other words, to improve the performance of QGANs, the prior distribution PZ and the number of encoding gates Nge should be carefully designed. 言い換えれば、QGANの性能を改善するためには、事前分布PZと符号化ゲート数Ngeを慎重に設計する必要がある。 0.73
Last, the explicit dependence on the architecture of Ansatz connects the generalization of QGANs with their trainability. 最後に、Ansatzのアーキテクチャへの明示的な依存は、QGANの一般化とトレーニング可能性とを結びつける。 0.47
Concretely, a large Ngt or k may induce barren plateaus in training QGLMs [74, 75] and results in an inferior learning performance. 具体的には、大きなNgtまたはkは、QGLMs[74,75]を訓練する際にバレンプラトーを誘導し、学習性能が劣る。
訳抜け防止モード: 具体的には、大きなNgtまたはkは、QGLMsのトレーニングにおいてバレンプラトーを誘導する[74, 75]。 その結果 成績は劣ります
0.66
Meanwhile, it also leads to a degraded generalization error bound. 一方、これはまた、劣化した一般化誤差につながる。 0.67
This inherent connection queries a unified framework to simultaneously enhance the trainability and generalization of QGANs. この固有の接続は、QGANのトレーニング性と一般化を同時に強化する統合フレームワークをクエリする。 0.55
Remark. We emphasize that most kernels such as RBF, linear kernels, and Mat´ern kernels satisfy the Lipchitz condition employed in Theorem 2 [85]. コメント。 RBF、線形カーネル、Mat ́ernカーネルなどのほとんどのカーネルは、定理2[85]で用いられるリプチッツ条件を満たすことを強調する。 0.51
Meanwhile, the above results can be efficiently generalized to noisy settings by leveraging the analysis in Ref. 一方、refの分析を活用し、上記結果をノイズ設定に効率的に一般化することができる。 0.61
[70]. Moreover, the achieved results in Theorem 2 provide an efficient way to compare the generalization error of QGANs with different Ans¨atze. [70]. さらに、定理 2 で達成された結果は、QGAN の一般化誤差を異なるアンス・シャッツと比較する効率的な方法を与える。 0.47
See SM G for details. 詳細はSM Gを参照。 0.76
In addition, in SM I, we explain that Theorem 2 implies the potential advantages of QGANs in the task of Hamiltonian learning. また,SM Iでは,理論2がハミルトン学習におけるQGANの潜在的優位性を示唆している。 0.70
To validate the results in Theorem 2, we apply a variant of the style-QGAN proposed by [86] to generate 3D correlated Gaussian distributions with varied settings. Theorem 2の結果を検証するために, [86] が提案したスタイルQGANの変種を適用し, 異なる設定で3次元相関ガウス分布を生成する。 0.86
Two key modifications in our protocol are constructing the quantum generator following Fig 3(a) and replacing the trainable discriminator by MMD loss. 本プロトコルにおける2つの重要な変更点は、Fig 3(a)に続く量子ジェネレータの構築と、MDD損失によるトレーニング可能な識別器の置き換えである。 0.57
See SM G for the SM G を参照。 0.70
英語(論文から抽出)日本語訳スコア
6 FIG. 3: Simulation results of QGANs. 6 第3図:qgansのシミュレーション結果。 0.55
(a) The implementation of QGANs when the number of qubits is N = 3. (a) キュービットの数が N = 3 であるときの QGAN の実装。 0.73
U (z) refers to the encoding circuit to load the example z. U (z) は例 z をロードする符号化回路を指す。 0.77
The meaning of ‘L1 − 1’ is identical to the one explained in Fig 1. L1 − 1'の意味は図1で説明されているものと同じである。 0.84
The i) refers to the RY RZ gates applied on the i-th qubit in the l-th layer of ˆU (θ). i) は、(θ) の l 番目の層の i 番目の量子ビットに適用される RY RZ ゲートを指す。 0.64
(b) The outer plot shows the training gate U (θl loss of QGANs with varied settings of m. b) 外部プロットは, トレーニングゲートU(θl損失)をmの異なる設定で示す。 0.65
The x-axis refers to the number of iterations. x軸はイテレーションの数を指す。 0.66
The inner plot shows the generalization property of trained QGANs by evaluating MMD loss. 内部プロットは、MD損失を評価することにより、訓練されたQGANの一般化特性を示す。 0.57
(c) The visualization of the exploited 3D Gaussian distribution. (c)悪用された3次元ガウス分布の可視化。 0.70
The label ‘Xa-Xb’ means projects the 3D Gaussian into the Xa-Xb plane with a, b belonging to x, y, z-axis. Xa-Xb」というラベルは、3次元ガウスを x, y, z-軸に属する a, b の Xa-Xb 平面に投影することを意味する。 0.71
(d) The generated data sampled from the trained QGAN with varied settings of m. (d)mの異なる設定で訓練されたqganからサンプリングされたデータ。 0.65
From upper to lower panel, m equals to 2, 10, and 200, respectively. 上段から下段までのmはそれぞれ2,10,200である。 0.50
construction details. The target distribution Q is a 3D correlated Gaussian distribution centered at µ = (0, 0, 0) 建設の詳細。 対象分布 Q は μ = (0, 0, 0) を中心とする3次元相関ガウス分布である。 0.81
with covariance matrix σ =(cid:0) 0.5 1 0.25 共分散行列 σ = (cid:0) 0.5 1 0.25 0.33
(cid:1). The sampled (cid:1)。 サンプルは 0.75
0.1 0.5 0.1 0.25 0.1 0.5 0.1 0.5 0.1 0.25 0.1 0.5 0.22
examples from Q are visualized in Fig 3 Q の例は図 3 で視覚化されます 0.71
(c). The hyperparameter settings employed in the training procedure is as follows. (c)。 トレーニング手順で使用されるハイパーパラメータの設定は以下の通りである。 0.54
The reference samples n ranges from 200 to 10000 and we keep n = m. 基準標本 n は 200 から 10000 の範囲であり、n = m を保持する。 0.77
The layer depth of G(θ) is set as L ∈ {2, 4, 6, 8}. G(θ) の層深さは L ∈ {2, 4, 6, 8} と定義される。 0.81
Each setting is repeated with 5 times to collect the statistical results. 各設定は5回繰り返して統計結果を収集する。 0.67
The simulation results are exhibited in Figs. シミュレーション結果はfigで示されています。 0.69
3 (b)-(d). 3 (b)-(d)。 0.34
The outer plot in Fig 3 図3の外側のプロット 0.73
(b) shows that for all settings of m, the empirical MMD loss, i.e., MMDU (Pn ˆθ converges after 60 iterations, where the averaged loss is 0.0114, 0.0077, and 0.0054 for m = 2, 10, 200, respectively. (b) m のすべての設定において、経験的MDD損失、すなわち、MMDU (Pn >θ) は60反復後に収束し、平均損失は、それぞれ 00114, 0.0077, 0.0054 for m = 2, 10, 200 である。 0.82
The inner plot measures the expected MMD loss, i.e., the trained QGANs are employed to generate new 10000 examples and then evaluate MMDU to estimate MMD. 内部プロットは、予測MDD損失を測定する、すなわち、トレーニングされたQGANを使用して新しい10000のサンプルを生成し、MMDUを評価してMDDを推定する。 0.61
The averaged expected MMD loss for m = 2, 10, 200 is 0.1178, 0.0122, and 0.0041 respectively. m = 2, 10, 200の平均MD損失は0.1178, 0.0122, 0.0041である。 0.87
Since the generalization error of QGANs RC is proportional to | MMDU − MMD|, an immediate observation is that QGANs with a large m can obtain a better generalization ability, which echos with Theorem 2. QGANs RC の一般化誤差は | MMDU − MMD| に比例するので、直近の観察では、大きな m を持つ QGANs はより優れた一般化能力を得ることができる。 0.80
For illustration, we depicts the generated distribution of the trained QGANs in Fig 3(d). 例として,訓練されたqganの分布を図3(d)に示す。 0.68
With increasing m, the learned distribution is close to the real distribution in Fig 3 m が増加すると、学習された分布は Fig 3 の実分布に近い。 0.78
(c). See SM H for more simulations. (c)。 シミュレーションの詳細はsm hを参照。 0.51
(n,m) || Qm), (n,m) || Qm) 0.41
III. DISCUSSIONS We conduct a comprehensive study to quantify the generalization ability of QGLMs, including QCBMs and QGANs, with MMD loss. III。 討論 我々は,QCBMやQGANを含むQGLMの一般化能力をMD損失で定量化するための総合的研究を行った。 0.57
Although the attained the- oretical results do not exhibit the generic exponential advantages, we clearly show that under certain tasks and model settings, QCBMs and QGANs can surpass classical learning models. 達成しましたが- その結果,特定のタスクやモデル設定の下では,QCBMやQGANが古典的学習モデルを上回ることが明らかとなった。 0.59
Moreover, we provide a succinct and direct way to compare generalization of QGLMs with different Ans¨atze. さらに、QGLMの一般化と異なるアンス・シャッツを比較するための簡潔で直接的な方法を提供する。 0.54
Extensive numerical simulations have been conducted to support our theoretical statements. 理論的ステートメントを支援するため, 大規模数値シミュレーションを行った。 0.72
These theoretical and empirical observations deepen our understanding about the capabilities of QGLMs and benefit the design of advanced QGLMs. これらの理論的および実証的な観察により、QGLMの能力についての理解を深め、高度なQGLMの設計に寄与する。
訳抜け防止モード: これらの理論的および経験的観察により、QGLMの能力に関する理解が深まる 高度なQGLMの設計に役立ちます。
0.69
The developed techniques in this study are general and provide a novel approach to theoretically investigate the power of QGLMs. 本研究で開発された技術は一般的であり,QGLMのパワーを理論的に研究するための新しいアプローチを提供する。 0.67
For instance, a promising direction is uncovering the generalization property of other QGLMs such as quantum auto-encoder, quantum Boltzmann machines, etc. 例えば、有望な方向は、量子オートエンコーダや量子ボルツマンマシンなどの他のQGLMの一般化特性を明らかにすることである。 0.78
Furthermore, our work mainly concentrates on QGLMs with MMD loss, whereas a promising research direction is to derive the generalization of QGLMs with other loss functions such as Sinkhorn divergence, Stein discrepancy [87], and Wasserstein distance [88]. さらに,本研究は主にMDD損失を伴うQGLMに焦点をあてる一方で,Sinkhornの発散,Steinの相違[87],Wasserstein距離[88]といった他の損失関数によるQGLMの一般化が期待できる研究方向である。 0.84
For QCBMs, Theorem 1 unveils that quantum kernels can greatly benefit their generalization and reduce computational overhead over classical kernels when the target distribution is quantum. QCBM の場合、Theorem 1 は量子カーネルが一般化に大きく貢献し、ターゲット分布が量子であるときの古典的カーネルの計算オーバーヘッドを低減できることを示した。 0.73
These results underline that an important future direction will be identifying how to use QGLMs to gain substantial quantum advantages for practical applications, e g , quantum many body physics, quantum sensing, and quantum information processing. これらの結果は、量子多体物理学、量子センシング、量子情報処理といった実用的な応用において、qglmを使って実質的な量子優位性を得るための重要な将来の方向性を示唆している。 0.69
For QGANs, Theorem 2 hints that their generalization error has the explicit dependence on the qudits count, the structure information of the employed Ans¨atze, the adopted encoding method, and the choice of prior distribution. qgans の定理 2 は、それらの一般化誤差が qudits 数、使用済み ans の構造情報、採用済みの符号化法、事前分布の選択に明示的に依存していることを示唆している。 0.64
These results enable us to theoretically understand the power of QGLMs and provide practical guidance to これらの結果から,qglmのパワーを理論的に理解し,実践的な指導を行うことができる。 0.56
(c) (d)|0iU(z)U(✓l1)UE(✓l4)U(✓L1)|0iU(✓l2)U(✓L2)|0iU(✓l3)U(✓L3) (c) (d)|0iU(z)U(シュル1)UE(シュル4)U(シュル1)|0iU(シュル2)U(シュル2)|0iU(シュル3)U(シュル3)U(シュル3) 0.45
(a) (b)𝑋! -𝑋"𝑋!-𝑋#𝑋"-𝑋#𝑋! (a) (b)X! -𝑋"𝑋!-𝑋#𝑋"-𝑋#𝑋! 0.44
-𝑋"𝑋!-𝑋#𝑋"-𝑋#𝑋! -𝑋"𝑋!-𝑋#𝑋"-𝑋#𝑋! 0.46
-𝑋"𝑋!-𝑋#𝑋"-𝑋#𝑋! -𝑋"𝑋!-𝑋#𝑋"-𝑋#𝑋! 0.46
-𝑋"𝑋!-𝑋#𝑋"-𝑋#×𝑳−𝟏RealGenerated -X"X!-X#X"-X#×L−1RealGenerated 0.44
英語(論文から抽出)日本語訳スコア
devise novel Ans¨atze to enhance the learning performance of QGLMs. QGLMの学習性能を高めるために、小説『アンス・シャッツェ』を考案する。 0.49
Besides, since Ansatz with too much expressivity may degrade the generalization ability of QGANs, it is necessary to integrate various advanced techniques such as quantum circuit architecture design techniques [89–94] さらに、過剰な表現性を持つAnsatzはQGANの一般化能力を低下させる可能性があるため、量子回路設計技術のような様々な高度な技術を統合する必要がある[89-94]。 0.67
to boost QGLMs performance. QGLMのパフォーマンスを向上させる。 0.64
From the theoretical perspective, the entangled relation between expressivity and generalization in QGLMs queries a deeper understanding from each side. 理論的な観点から、QGLMsにおける表現性と一般化の間の絡み合った関係は、双方から深い理解を求める。 0.64
7 [1] Merlin C Wittrock. 7 [1]メルリンcウィットロック。 0.50
Generative processes of comprehen- sion. 理解の生成過程- イオン 0.54
Educational psychologist, 24(4):345–376, 1989. 教育心理学者、24(4):345–376, 1989。 0.71
[2] Yann LeCun, Yoshua Bengio, and Geoffrey Hinton. ヤン・ルクン、ヨシュア・ベンジオ、ジェフリー・ヒントン。 0.46
Deep learning. nature, 521(7553):436, 2015. 深く 学ぶこと。 自然誌 521(7553):436, 2015 0.69
[3] J¨urgen Schmidhuber. J surgen Schmidhuber (英語) 0.58
Deep learning in neural networks: ニューラルネットワークにおけるディープラーニング 0.71
An overview. Neural Networks, 61:85–117, 2015. 概要。 ニューラルネットワーク, 61:85-117, 2015。 0.46
[4] Peter Dayan, Geoffrey E Hinton, Radford M Neal, and Richard S Zemel. Peter Dayan氏、Geoffrey E Hinton氏、Radford M Neal氏、Richard S Zemel氏。 0.35
The helmholtz machine. ヘルムホルツマシン。 0.49
Neural computation, 7(5):889–904, 1995. 神経計算, 7(5):889–904, 1995。 0.78
[5] Diederik P. Kingma and Max Welling. 5] ディーデリク・p・キングマとマックス・ウェリング 0.54
Auto-encoding variational bayes. 自動エンコーディング変分ベイズ。 0.67
In Yoshua Bengio and Yann LeCun, editors, 2nd International Conference on Learning Representations, ICLR 2014, Banff, AB, Canada, April 14-16, 2014, Conference Track Proceedings, 2014. yoshua bengio and yann lecun, editors, 2nd international conference on learning representations, iclr 2014, banff, ab, canada, april 14-16, 2014 conference track proceedings, 2014 (英語)
訳抜け防止モード: ヨシュア・ベンジオとヤン・ルクンでは、第2回学習表現国際会議の編集者である。 ICLR 2014 Banff, AB, Canada, April 14 - 16, 2014 2014年4月1日開催。
0.68
[6] Ian Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, and Yoshua Bengio. Ian Goodfellow氏、Jean Pouget-Abadie氏、Mehdi Mirza氏、Bing Xu氏、David Warde-Farley氏、Sherjil Ozair氏、Aaron Courville氏、Yoshua Bengio氏。 0.70
Generative adversarial nets. In Advances in neural information processing systems, pages 2672–2680, 2014. 敵ネットの生成。 ニューラル・インフォメーション・プロセッシング・システムにおける進歩2672-2680, 2014ページ 0.64
[7] Junbo Zhao, Michael Mathieu, and Yann LeCun. 7]junbo zhao、michael mathieu、yann lecun。 0.44
Energybased generative adversarial networks. エネルギーベースの生成広告ネットワーク。 0.64
In 5th International Conference on Learning Representations, ICLR 2017, 2017. 第5回国際学習表現会議、ICLR 2017、2017。 0.68
[8] Ran Yi, Yong-Jin Liu, Yu-Kun Lai, and Paul L Rosin. [8]イ、ヨンジン・リウ、ユクン・ライ、ポール・l・ロシンが走った。 0.50
APDrawingGAN: Generating artistic portrait drawings from face photos with hierarchical gans. apdrawinggan: 階層的なganで顔写真から芸術的な肖像画を作成する。 0.55
In IEEE Conference on Computer Vision and Pattern Recognition (CVPR ’19), pages 10743–10752, 2019. IEEE Conference on Computer Vision and Pattern Recognition (CVPR'19) において、10743-10752, 2019。 0.88
[9] Tero Karras, Samuli Laine, and Timo Aila. 9]tero karras、samuli laine、timo aila。 0.42
A stylebased generator architecture for generative adversarial networks. 生成型adversarialネットワークのためのスタイルベースジェネレータアーキテクチャ 0.77
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 4401–4410, 2019. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 4401–4410, 2019。
訳抜け防止モード: IEEE / CVF Conference on Computer Vision and Pattern Recognition に参加して 4401-4410頁、2019年。
0.84
[10] Taesung Park, Ming-Yu Liu, Ting-Chun Wang, and Jun-Yan Zhu. 10]テズン・パーク、ミン・ユ・リウ、ティン・チュン・ワン、ジュン・ヤン・ジュ 0.50
Semantic image synthesis with spatially-adaptive normalization. 空間適応正規化による意味画像合成 0.77
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 2337–2346, 2019. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2337–2346, 2019。
訳抜け防止モード: IEEE / CVF Conference on Computer Vision and Pattern Recognition に参加して 2337-2346頁、2019年。
0.81
[11] Karim Armanious, Chenming Jiang, Marc Fischer, Thomas K¨ustner, Tobias Hepp, Konstantin Nikolaou, Sergios Gatidis, and Bin Yang. 11]Karim Armanious, Chenming Jiang, Marc Fischer, Thomas K sustner, Tobias Hepp, Konstantin Nikolaou, Sergios Gatidis, Bin Yang。
訳抜け防止モード: [11]カリム・アルマニアス、チェンミン・ジャン、マーク・フィッシャー、 Tobias Hepp, Konstantin Nikolaou, Sergios Gatidis そしてビン・ヤン。
0.60
Medgan: Medical image translation using gans. メドガン:ガンを用いた医用画像翻訳。 0.71
Computerized Medical Imaging and Graphics, 79:101684, 2020. Computerized Medical Imaging and Graphics, 79:101684, 2020。 0.46
[12] (cid:32)Lukasz Maziarka, Agnieszka Pocha, Jan Kaczmarczyk, Krzysztof Rataj, Tomasz Danel, and Micha(cid:32)l Warcho(cid:32)l. 12] (cid:32)Lukasz Maziarka, Agnieszka Pocha, Jan Kaczmarczyk, Krzysztof Rataj, Tomasz Danel, Micha(cid:32)l Warcho(cid:32)l 0.44
Mol-cyclegan: a generative model for molecular optimization. Mol-cyclegan: 分子最適化のための生成モデル。 0.78
Journal of Cheminformatics, 12(1):1–18, 2020. journal of cheminformatics, 12(1):1–18, 2020を参照。 0.62
[13] Oscar M´endez-Lucio, Benoit Baillif, Djork-Arn´e Clevert, David Rouqui´e, and Joerg Wichard. 13]Oscar M ́endez-Lucio, Benoit Baillif, Djork-Arn ́e Clevert, David Rouqui ́e, Joerg Wichard。 0.38
De novo generation of hit-like molecules from gene expression signatures using artificial intelligence. 人工知能を用いた遺伝子発現シグネチャからのヒット様分子の生成 0.74
Nature communications, 11(1):1–10, 2020. 自然通信 11(1):1-10, 2020。 0.84
[14] Shahnawaz Ahmed, Carlos S´anchez Mu˜noz, Franco Nori, and Anton Frisk Kockum. 14]ショーナワズ・アフメド、カルロス・S・アンチェス・ム・シノス、フランコ・ノリ、アントン・フリスク・コッカム。 0.49
Quantum state tomography 量子状態トモグラフィ 0.72
with conditional generative adversarial networks. 条件付き生成的敵ネットワークで 0.70
Physical Review Letters, 127(14):140502, 2021. フィジカル・レビュー・レター 127(14):140502, 2021。 0.79
[15] Juan Carrasquilla, Giacomo Torlai, Roger G Melko, and Leandro Aolita. 15]juan carrasquilla、giacomo torlai、roger g melko、leandro aolita。 0.36
Reconstructing quantum states with generative models. 生成モデルによる量子状態の再構成。 0.72
Nature Machine Intelligence, 1(3):155–161, 2019. ナチュラル・マシン・インテリジェンス 1(3):155–161, 2019。 0.69
[16] Alistair WR Smith, Johnnie Gray, and MS Kim. 16]Alistair WR Smith、Johnnie Gray、そしてMS Kim。 0.72
Efficient quantum state sample tomography with basis-dependent neural networks. 基底依存ニューラルネットワークを用いた効率的な量子状態サンプルトモグラフィ 0.70
PRX Quantum, 2(2):020348, 2021. PRX Quantum, 2(2):020348, 2021。 0.89
[17] Andrea Rocchetto, Edward Grant, Sergii Strelchuk, Giuseppe Carleo, and Simone Severini. Andrea Rocchetto氏、Edward Grant氏、Sergii Strelchuk氏、Giuseppe Carleo氏、Simone Severini氏。 0.35
Learning hard quantum distributions with variational autoencoders. 変分オートエンコーダによるハード量子分布の学習 0.74
npj Quantum Information, 4(1):1–7, 2018. npj Quantum Information, 4(1):1-7, 2018 0.46
[18] Roger G Melko, Giuseppe Carleo, Juan Carrasquilla, and J Ignacio Cirac. [18]Roger G Melko、Giuseppe Carleo、Juan Carrasquilla、J Ignacio Cirac。 0.35
Restricted boltzmann machines in quantum physics. 量子物理学における制限ボルツマンマシン。 0.70
Nature Physics, 15(9):887–892, 2019. 自然物理学、15(9)887-892, 2019。 0.82
[19] Giuseppe Carleo, Yusuke Nomura, and Masatoshi Imada. [19]ジュゼッペ・カルロ、野村祐介、今田正俊 0.44
Constructing exact representations of quantum manybody systems with deep neural networks. 深層ニューラルネットワークを用いた量子多体系の正確な表現の構築 0.80
Nature communications, 9(1):1–11, 2018. ナチュラル・コミュニケーションズ、2018年1月9日-1日。 0.52
[20] Yilun Du and Igor Mordatch. 20] イユン・デュとイゴール・モルダッチ 0.45
Implicit generation and modeling with energy based models. エネルギーベースモデルによる暗黙的生成とモデリング。 0.81
In Advances in Neural Information Processing Systems, volume 32. ニューラル・インフォメーション・プロセッシング・システム(neural information processing system)の進歩において、ボリューム32。 0.55
Curran Associates, Inc., 2019. curran associates, inc.、2019年。 0.53
[21] Alexey Dosovitskiy and Thomas Brox. 21] アレクセイ・ドソヴィツキーと トーマス・ブロックス 0.37
Generating images with perceptual similarity metrics based on deep networks. 深層ネットワークに基づく知覚的類似度メトリクスによる画像の生成 0.76
Advances in neural information processing systems, 29:658–666, 2016. ニューラル情報処理システムの進歩 (29:658-666, 2016) 0.70
[22] Sanjeev Arora, Andrej Risteski, and Yi Zhang. [22]Sanjeev Arora、Andrej Risteski、Yi Zhang。 0.33
Do GANs learn the distribution? GANは分布を学びますか? 0.82
some theory and empirics. In International Conference on Learning Representations, 2018. 幾らかの理論と経験 2018年、国際学習表現会議に参加。 0.76
[23] Tong Che, Yanran Li, Athul Paul Jacob, Yoshua Bengio, and Wenjie Li. 23]トン・チェ、ヤン・リー、アトゥル・ポール・ジェイコブ、ヨシュア・ベンジオ、ウェンジー・リー。 0.49
Mode regularized generative adversarial networks. モード正規化生成対向ネットワーク。 0.80
arXiv preprint arXiv:1612.02136, 2016. arxiv プレプリント arxiv:1612.02136, 2016 0.42
[24] Lars Mescheder, Andreas Geiger, and Sebastian Nowozin. Lars Mescheder氏、Andreas Geiger氏、Sebastian Nowozin氏。 0.61
Which training methods for gans do actually converge? ganが実際に収束するトレーニング方法は何か? 0.68
In International conference on machine learning, pages 3481–3490. 機械学習に関する国際会議』3481-3490頁。 0.77
PMLR, 2018. 2018年、PMLR。 0.68
[25] Jie Gui, Zhenan Sun, Yonggang Wen, Dacheng Tao, and Jieping Ye. 25]ジエ・ギ、ジェナン・サン、ヨンガン・ウェン、ダチェン・タオ、ジーピン・イェ 0.30
A review on generative adversarial networks: Algorithms, theory, and applications. 生成型adversarial network: algorithms, theory, and applicationsのレビュー 0.68
IEEE Transactions on Knowledge and Data Engineering, 2021. IEEE Transactions on Knowledge and Data Engineering, 2021。 0.40
[26] Richard P Feynman. 26] リチャード・p・ファインマン 0.61
Quantum mechanical computers. 量子機械コンピューター。 0.73
Between Quantum and Cosmos, pages 523–548, 2017. 量子とコスモスの間、2017年523-548頁。 0.71
[27] Jacob Biamonte, Peter Wittek, Nicola Pancotti, Patrick Rebentrost, Nathan Wiebe, and Seth Lloyd. [27]Jacob Biamonte氏、Peter Wittek氏、Nicola Pancotti氏、Patrick Rebentrost氏、Nathan Wiebe氏、Seth Lloyd氏。 0.39
Quantum machine learning. Nature, 549(7671):195, 2017. 量子機械学習。 549(7671):195年、2017年。 0.69
[28] Aram W Harrow and Ashley Montanaro. 28] アラム・w・ハローと アシュリー・モンタナロ 0.54
Quantum computational supremacy. Nature, 549(7671):203, 2017. 量子計算超越性。 549(7671):203年、2017年。 0.52
[29] Xun Gao, Z-Y Zhang, and L-M Duan. [29]Xun Gao、Z-Y Zhang、L-M Duan。 0.40
A quantum machine learning algorithm based on generative models. 生成モデルに基づく量子機械学習アルゴリズム 0.60
Science advances, 4(12):eaat9004, 2018. 科学の進歩 4(12):eaat9004, 2018。 0.80
[30] Seth Lloyd and Christian Weedbrook. 30] セス・ロイドと クリスチャン・ウィードブルック 0.58
Quantum gen- 量子ゲン- 0.37
英語(論文から抽出)日本語訳スコア
erative adversarial learning. Physical review letters, 121(4):040502, 2018. 敵対的な学習です 書評 121(4):040502, 2018。 0.48
[31] John Preskill. 31] ジョン・プレスキル 0.57
Quantum computing in the nisq era and nisq時代の量子コンピューティング 0.49
beyond. Quantum, 2:79, 2018. 向こうだ 量子、2018年2:79。 0.48
[32] Frank Arute, Kunal Arya, Ryan Babbush, Dave Bacon, Joseph C Bardin, Rami Barends, Rupak Biswas, Sergio Boixo, Fernando GSL Brandao, David A Buell, et al Quantum supremacy using a programmable superconducting processor. [32]Frank Arute, Kunal Arya, Ryan Babbush, Dave Bacon, Joseph C Bardin, Rami Barends, Rupak Biswas, Sergio Boixo, Fernando GSL Brandao, David A Buell, et al Quantum supremacy using a programmable superconducting processor。
訳抜け防止モード: [32 ] Frank Arute, Kunal Arya, Ryan Babbush, Dave Bacon, Joseph C Bardin, Rami Barends, Rupak Biswas, Sergio Boixo Fernando GSL Brandao, David A Buell, et al Quantum supremacy プログラム可能な超伝導プロセッサを使います
0.86
Nature, 574(7779):505–510, 2019. 自然誌 574(7779):505-510, 2019。 0.37
[33] Yulin Wu, Wan-Su Bao, Sirui Cao, Fusheng Chen, MingCheng Chen, Xiawei Chen, Tung-Hsun Chung, Hui Deng, Yajie Du, Daojin Fan, et al Strong quantum computational advantage using a superconducting quantum processor. [33]ユリン・ウー、ワン・ス・バオ、シルイ・カオ、深陳、明陳、Xiawei Chen、Tung-Hsun Chung、Hui Deng、Yajie Du、Daojin Fan、その他超伝導量子プロセッサを用いた量子量子計算の優位性。 0.73
Physical review letters, 127(18):180501, 2021. 127(18):180501,2021。 0.40
[34] Hsin-Yuan Huang, Michael Broughton, Jordan Cotler, Sitan Chen, Jerry Li, Masoud Mohseni, Hartmut Neven, Ryan Babbush, Richard Kueng, John Preskill, et al Quantum advantage in learning from experiments. Hsin-Yuan Huang氏、Michael Broughton氏、Jordan Cotler氏、Sitan Chen氏、Jerry Li氏、Masoud Mohseni氏、Hartmut Neven氏、Ryan Babbush氏、Richard Kueng氏、John Preskill氏、そしてal Quantum advantage in learn from experiment。
訳抜け防止モード: [34 ]Hsin - Yuan Huang, Michael Broughton, Jordan Cotler, Sitan Chen, Jerry Li, Masoud Mohseni, Hartmut Neven Ryan Babbush氏、Richard Kueng氏、John Preskill氏、その他、実験から学ぶ上での量子優位性。
0.87
arXiv preprint arXiv:2112.00778, 2021. arXiv preprint arXiv:2112.00778, 2021 0.40
[35] Hsin-Yuan Huang, Michael Broughton, Masoud Mohseni, Ryan Babbush, Sergio Boixo, Hartmut Neven, and Jarrod R McClean. Hsin-Yuan Huang氏、Michael Broughton氏、Masoud Mohseni氏、Ryan Babbush氏、Sergio Boixo氏、Hartmut Neven氏、Jarrod R McClean氏。 0.73
Power of data in quantum machine learning. 量子機械学習におけるデータのパワー。 0.87
Nature communications, 12(1):1–9, 2021. 自然通信 12(1):1–9, 2021。 0.44
[36] Xinbiao Wang, Yuxuan Du, Yong Luo, and Dacheng Tao. [36]シンビアオ・ワン、Yuxuan Du、Yong Luo、Dacheng Tao。 0.62
Towards understanding the power of quantum kernels in the NISQ era. NISQ時代の量子カーネルのパワーを理解することを目指す。 0.75
Quantum, 5:531, August 2021. 量子、2021年8月5日531号。 0.55
[37] Yuxuan Du and Dacheng Tao. [37]ユクサン・ドゥとダッチェン・タオ。 0.42
On exploring practical potentials of quantum auto-encoder with advantages. 量子オートエンコーダの実用可能性と利点について 0.74
arXiv preprint arXiv:2106.15432, 2021. arXiv preprint arXiv:2106.15432, 2021 0.40
[38] Marco Cerezo, Andrew Arrasmith, Ryan Babbush, Simon C Benjamin, Suguru Endo, Keisuke Fujii, Jarrod R McClean, Kosuke Mitarai, Xiao Yuan, Lukasz Cincio, et al Variational quantum algorithms. [38]marco cerezo、andrew arrasmith、ryan babbush、simon c benjamin、suguru endo、keisuke fujii、jarrod r mcclean、kosuke mitarai、xiao yuan、lukasz cincio、al variational quantum algorithms。
訳抜け防止モード: マルコ・セレゾ アンドリュー・アラスミス ライアン・バブブッシュ simon c benjamin, suguru endo, keisuke fujii, jarrod r mcclean, kosuke mitarai, xiao yuan, lukasz cincio, et al variational quantum algorithms など。
0.56
Nature Reviews Physics, 3(9):625–644, 2021. Nature Reviews Physics, 3(9):625–644, 2021。 0.46
[39] Kishor Bharti, Alba Cervera-Lierta, Thi Ha Kyaw, Tobias Haug, Sumner Alperin-Lea, Abhinav Anand, Matthias Degroote, Hermanni Heimonen, Jakob S Kottmann, Tim Menke, et al Noisy intermediatescale quantum algorithms. 39] Kishor Bharti, Alba Cervera-Lierta, Thi Ha Kyaw, Tobias Haug, Sumner Alperin-Lea, Abhinav Anand, Matthias Degroote, Hermanni Heimonen, Jakob S Kottmann, Tim Menke, et al Noisy intermediatescale quantum algorithm。 0.44
Reviews of Modern Physics, 94(1):015004, 2022. 現代物理学 94(1):015004, 2022 0.61
[40] Marcello Benedetti, Erika Lloyd, Stefan Sack, and Mattia Fiorentini. 40]マルチェロ・ベネデッティ、エリカ・ロイド、ステファン・サック、マティア・フィオレンティーニ 0.39
Parameterized quantum circuits as machine learning models. 機械学習モデルとしての量子回路のパラメータ化。 0.68
Quantum Science and Technology, 4(4):043001, 2019. 量子科学と技術, 4(4):043001, 2019。 0.83
[41] Marcello Benedetti, Delfina Garcia-Pintos, Oscar Perdomo, Vicente Leyton-Ortega, Yunseong Nam, and Alejandro Perdomo-Ortiz. Marcello Benedetti, Delfina Garcia-Pintos, Oscar Perdomo, Vicente Leyton-Ortega, Yunseong Nam, Alejandro Perdomo-Ortiz。 0.41
A generative modeling approach for benchmarking and training shallow quantum circuits. 浅量子回路のベンチマークとトレーニングのための生成モデリング手法 0.80
npj Quantum Information, 5(1):1–9, 2019. npj Quantum Information, 5(1):1-9, 2019 0.47
[42] Jin-Guo Liu and Lei Wang. [42]ジン・グオ・リウとレイ・ワン 0.39
Differentiable learning of quantum circuit born machines. 量子回路生まれの機械の微分可能学習 0.77
Physical Review A, 98(6):062324, 2018. フィジカル・レビュー A, 98(6):062324, 2018。 0.75
[43] Brian Coyle, Maxwell Henderson, Justin Chan Jin Le, Niraj Kumar, Marco Paini, and Elham Kashefi. 43] Brian Coyle, Maxwell Henderson, Justin Chan Jin Le, Niraj Kumar, Marco Paini, Elham Kashefi。
訳抜け防止モード: 43] ブライアン・コール マクスウェル・ヘンダーソン ジャスティン・チャン・ジン・ル niraj kumar、marco paini、elham kashefi。
0.59
Quantum versus classical generative modelling in finance. ファイナンスにおける量子対古典生成モデリング。 0.75
Quantum Science and Technology, 6(2):024013, 2021. 量子科学・技術 6(2):024013, 2021。 0.71
[44] Yuxuan Du, Min-Hsiu Hsieh, Tongliang Liu, and Dacheng Tao. [44]Yuxuan Du、Min-Hsiu Hsieh、Tongliang Liu、Dacheng Tao。 0.36
Expressive power of parametrized quantum circuits. パラメタライズド量子回路の表現力 0.69
Phys. Rev. Research, 2:033125, Jul 2020. Phys rev. research, 2:033125, jul 2020 を参照。 0.49
[45] Amir Khoshaman, Walter Vinci, Brandon Denis, Evgeny Andriyash, Hossein Sadeghi, and Mohammad H Amin. Amir Khoshaman氏、Walter Vinci氏、Brandon Denis氏、Evgeny Andriyash氏、Hossein Sadeghi氏、Mohammad H Amin氏。
訳抜け防止モード: 45] アミール・ホシャマン ウォルター・ヴィンチ ブランドン・デニス evgeny andriyash氏、hossein sadeghi氏、mohammad h amin氏。
0.58
Quantum variational autoencoder. 量子変量オートエンコーダ。 0.82
Quantum Science and Technology, 4(1):014001, 2018. 量子科学・技術 4(1):014001, 2018 0.65
8 Yuichiro Matsuzaki, Shiro Kawabata, Tetsuro Nikuni, and Hideaki Hakoshima. 8 松崎勇一郎、川端四郎、二国哲郎、箱島秀秋。 0.47
Boltzmann machine learning with a variational quantum algorithm. 変分量子アルゴリズムを用いたボルツマン機械学習。 0.77
Physical Review A, 104(3):032413, 2021. 物理書評 A, 104(3):032413, 2021。 0.76
[47] Chang Yu Hsieh, Qiming Sun, Shengyu Zhang, and Chee Kong Lee. 47] チャン・ユ・ヘーシー, ケイ・サン, シェン・ジュン, チー・コン・リー 0.45
Unitary-coupled restricted boltzmann machine ansatz for quantum simulations. 量子シミュレーションのためのユニタリ結合制限ボルツマンマシンアンサッツ。 0.80
npj Quantum Information, 7(1):1–10, 2021. npj 量子情報 7(1):1–10, 2021。 0.90
[48] Christa Zoufal, Aur´elien Lucchi, and Stefan Woerner. [48]Christa Zoufal、Aur ́elien Lucchi、Stefan Woerner。 0.34
Quantum generative adversarial networks for learning and loading random distributions. ランダム分布の学習とロードのための量子生成逆ネットワーク 0.86
npj Quantum Information, 5(1):1–9, 2019. npj Quantum Information, 5(1):1-9, 2019 0.47
[49] Jinfeng Zeng, Yufeng Wu, Jin-Guo Liu, Lei Wang, and Jiangping Hu. [49]晋風禅、幽風宗、金愚周、麗王、江東宝 0.52
Learning and inference on generative adversarial quantum circuits. 生成逆量子回路の学習と推論 0.57
Physical Review A, 99(5):052306, 2019. フィジカル・レビューA, 99(5):052306, 2019。 0.82
[50] He-Liang Huang, Yuxuan Du, Ming Gong, Youwei Zhao, Yulin Wu, Chaoyue Wang, Shaowei Li, Futian Liang, Jin Lin, Yu Xu, et al Experimental quantum generative adversarial networks for image generation. [50]He-Liang Huang,Yuxuan Du,Ming Gong,Youwei Zhao,Yulin Wu,Chaoyue Wang,Shaowei Li,Futian Liang,Jin Lin,Yu Xu,その他画像生成のための実験的量子生成敵ネットワーク。 0.84
Physical Review Applied, 16(2):024051, 2021. 16(2):024051, 2021。 0.42
[51] Yiming Huang, Hang Lei, Xiaoyu Li, and Guowu Yang. [51]黄陽、黄麗、Xiaoyu Li、Guowu Yang。 0.30
Quantum maximum mean discrepancy gan. Neurocomputing, 454:88–100, 2021. 量子平均誤差ガン。 神経計算、454:88-100、2021。 0.44
[52] Jonathan Romero and Al´an Aspuru-Guzik. 52]ジョナサン・ロメロとアル・アン・アスプル=グジク。 0.45
Variational quantum generators: Generative adversarial quantum machine learning for continuous distributions. 変分量子生成器:連続分布のための生成逆量子機械学習。 0.84
Advanced Quantum Technologies, 4(1):2000003, 2021. 先進量子技術 4(1):2000003, 2021 0.70
[53] Kaitlin Gili, Marta Mauri, and Alejandro Perdomo-Ortiz. [53]カイトリン・ギリ、マルタ・モーリ、アレハンドロ・ペルドモ=オルティス 0.49
Evaluating generalization in classical and quantum generative models. 古典および量子生成モデルの一般化の評価 0.83
arXiv preprint arXiv:2201.08770, 2022. arXiv preprint arXiv:2201.08770, 2022 0.40
[54] Kouhei Nakaji and Naoki Yamamoto. [54]中寺康平と山本直樹。 0.28
Quantum semisupervised generative adversarial network for enhanced data classification. 拡張データ分類のための量子半教師付き生成対向ネットワーク 0.72
Scientific reports, 11(1):1–10, 2021. 科学誌『11(1):1-10, 2021年』。 0.57
[55] Paolo Braccia, Leonardo Banchi, and Filippo Caruso. [55]パオロ・ブラシア、レオナルド・バンチ、フィリッポ・カルーソ 0.50
Quantum noise sensing by generating fake noise. フェイクノイズの発生による量子ノイズセンシング 0.74
Physical Review Applied, 17(2):024002, 2022. 物理書評 17(2):024002, 2022年。 0.64
[56] Abhinav Anand, Jonathan Romero, Matthias Degroote, and Al´an Aspuru-Guzik. [56]abhinav anand、jonathan romero、matthias degroote、al 'an aspuru-guzik。 0.65
Noise robustness and experimental demonstration of a quantum generative adversarial network for continuous distributions. 連続分布に対する量子生成逆ネットワークの雑音ロバスト性と実験的実証 0.77
Advanced Quantum Technologies, 4(5):2000069, 2021. 先進量子技術, 4(5):2000069, 2021。 0.79
[57] Xu-Fei Yin, Yuxuan Du, Yue-Yang Fei, Rui Zhang, LiZheng Liu, Yingqiu Mao, Tongliang Liu, Min-Hsiu Hsieh, Li Li, Nai-Le Liu, Dacheng Tao, Yu-Ao Chen, and JianWei Pan. [57]Xu-Fei Yin、Yuxuan Du、Yue-Yang Fei、Rui Zhang、LiZheng Liu、Yingqiu Mao、Tongliang Liu、Min-Hsiu Hsieh、Li Li、Nai-Le Liu、Dacheng Tao、Yu-Ao Chen、JianWei Pan。
訳抜け防止モード: [57 ]xu - fei yin, yuxuan du, yue - yang fei ルイ・ジャン、リジン・リウ、ヤンキウ・マオ、トングリアン・リウ、 ミン - hsiu hsieh, li li, nai - le liu, dacheng tao, yu - ao chen, jianwei pan。
0.52
Efficient Bipartite Entanglement Detection Scheme with a Quantum Adversarial Solver. 量子対数ソルバを用いた効率的な二部絡み検出方式 0.69
Phys. Rev. Lett. Phys Rev. Lett. 0.35
128, 110501 (2022), 2022. 128, 110501 (2022), 2022. 0.38
arXiv:2203.07749v1. arXiv:2203.07749v1。 0.37
[58] Implicit probabilistic models do not specify the distribution of the data itself, but rather define a stochastic process that, after training, aims to draw samples from the underlying data distribution. [58] 暗黙的確率モデルは、データそのものの分布を規定せず、トレーニングの後に基礎となるデータ分布からサンプルを引き出すことを目的とした確率的プロセスを定義する。 0.86
[59] Daiwei Zhu, Norbert M Linke, Marcello Benedetti, Kevin A Landsman, Nhung H Nguyen, C Huerta Alderete, Alejandro Perdomo-Ortiz, Nathan Korda, A Garfoot, Charles Brecque, et al Training of quantum circuits on a hybrid quantum computer. 59]Daiwei Zhu, Norbert M Linke, Marcello Benedetti, Kevin A Landsman, Nhung H Nguyen, C Huerta Alderete, Alejandro Perdomo-Ortiz, Nathan Korda, A Garfoot, Charles Brecque, et al Training of quantum circuits on a hybrid quantum computer。
訳抜け防止モード: [59 ]Daiwei Zhu, Norbert M Linke, Marcello Benedetti, Kevin A Landsman, Nhung H Nguyen, C Huerta Alderete Alejandro Perdomo - Ortiz, Nathan Korda, A Garfoot, Charles Brecque ハイブリッド量子コンピュータにおける量子回路の訓練
0.74
Science advances, 5(10):eaaw9918, 2019. 科学の進歩 5(10):eaaw9918, 2019。 0.84
[60] Ling Hu, Shu-Hao Wu, Weizhou Cai, Yuwei Ma, Xianghao Mu, Yuan Xu, Haiyan Wang, Yipu Song, Dong-Ling Deng, Chang-Ling Zou, et al Quantum generative adversarial learning in a superconducting quantum circuit. [60]Ling Hu, Shu-Hao Wu, Weizhou Cai, Yuwei Ma, Xianghao Mu, Yuan Xu, Haiyan Wang, Yipu Song, Dong-Ling Deng, Chang-Ling Zou, et al Quantum Generativeversarial Learning in a superconducting quantum circuit。
訳抜け防止モード: 60 ]リン・フー、シュー-フー・フー・ヴァイ・シー、ユーウェイ・マ 清州武、元xu、海陽王、李福歌 dong - ling deng, chang - ling zou, et al quantum generative adversarial learning in a superconducting quantum circuit (英語)
0.63
Science advances, 5(1):eaav2761, 2019. 科学の進歩 5(1):eaav2761, 2019。 0.84
[46] Yuta Shingu, Yuya Seki, Shohei Watabe, Suguru Endo, [46]夕田新宮、夕夜関、渡辺正平、遠藤春 0.46
[61] Junde Li, Rasit O Topaloglu, and Swaroop Ghosh. [61]Junge Li、Rasit O Topaloglu、Swaroop Ghosh。 0.30
Quan- クァン 0.48
英語(論文から抽出)日本語訳スコア
tum generative models for small molecule drug discovery. 小分子ドラッグ発見のためのtum生成モデル。 0.70
IEEE Transactions on Quantum Engineering, 2:1–8, 2021. ieee transactions on quantum engineering, 2:1–8, 2021を参照。 0.58
[62] Yu-Xin Jin, Jun-Jie Hu, Qi Li, Zhi-Cheng Luo, FangYan Zhang, Hao Tang, Kun Qian, and Xian-Min Jin. [62]ユジン・ジュン・ジー・リー・ジ・チェン・ルオ・ファン・チャン・チャン・ハオ・タン・クン・チャン・ミン・ジン
訳抜け防止モード: [62 ]ユ-シンジン、ジュン-ジーフー、 Qi Li, Zhi - Cheng Luo, FangYan Zhang, Hao Tang Kun Qian, and Xian - Min Jin
0.85
Quantum Deep Learning for Mutant COVID-19 Strain Prediction, 2022. 変異型covid-19株予測のための量子ディープラーニング、2022年。 0.58
arXiv:2203.03556v1. arXiv:2203.03556v1。 0.19
[63] Zeyuan Allen-Zhu, Yuanzhi Li, and Yingyu Liang. 63]ゼユアン・アレン=ズー、ユンジ・リー、ヤンギュ・リアン 0.38
Learning and generalization in overparameterized neural networks, going beyond two layers. 過パラメータ化されたニューラルネットワークの学習と一般化。 0.60
In Proceedings of the 33rd International Conference on Neural Information Processing Systems, pages 6158–6169, 2019. 第33回ニューラル情報処理システム国際会議(英語版)のProceedings of the 33rd International Conference on Neural Information Processing Systems, page 6158–6169, 2019。
訳抜け防止モード: 第33回神経情報処理システム国際会議の開催にあたって 6158-6169頁、2019年。
0.75
[64] Yuxuan Du, Min-Hsiu Hsieh, Tongliang Liu, Shan You, and Dacheng Tao. [64]Yuxuan Du、Min-Hsiu Hsieh、Tongliang Liu、Shan You、Dacheng Tao。 0.35
Learnability of quantum neural networks. 量子ニューラルネットワークの学習可能性 0.82
PRX Quantum, 2(4):040337, 2021. PRX Quantum, 2(4):040337, 2021。 0.44
[65] Sanjeev Arora, Rong Ge, Yingyu Liang, Tengyu Ma, and Yi Zhang. [65]サンジェフ・アロラ、ロンゲ、Yingyu Liang、Tengyu Ma、Yi Zhang。 0.52
Generalization and equilibrium in generative adversarial nets (gans). generative adversarial nets (gans) の一般化と平衡 0.74
arXiv preprint arXiv:1703.00573, 2017. arxiv プレプリント arxiv:1703.00573, 2017 0.41
[66] Shengjia Zhao, Hongyu Ren, Arianna Yuan, Jiaming Song, Noah Goodman, and Stefano Ermon. [66]シェンジャ・ジャオ、ホンユ・レン、アリナ・アン、ジーミング・ソング、ノア・グッドマン、ステファノ・エルモン 0.47
Bias and generalization in deep generative models: An empirical study. 深層生成モデルにおけるバイアスと一般化:実証的研究 0.78
Advances in Neural Information Processing Systems, 31, 2018. ニューラル情報処理システムの進歩,2018年3月31日。 0.71
[67] Amira Abbas, David Sutter, Christa Zoufal, Aur´elien Lucchi, Alessio Figalli, and Stefan Woerner. 67] Amira Abbas, David Sutter, Christa Zoufal, Aur ́elien Lucchi, Alessio Figalli, Stefan Woerner。 0.39
The power of quantum neural networks. 量子ニューラルネットワークの力です 0.62
Nature Computational Science, 1(6):403–409, 2021. 自然計算科学 1(6):403–409, 2021。 0.84
[68] Leonardo Banchi, Jason Pereira, and Stefano Pirandola. [68]レオナルド・バンチ、ジェイソン・ペレイラ、ステファノ・ピランドラ 0.58
Generalization in quantum machine learning: A quantum information standpoint. 量子機械学習における一般化: 量子情報の観点から 0.86
PRX Quantum, 2(4):040321, 2021. PRX Quantum, 2(4):040321, 2021。 0.44
[69] Matthias C Caro, Hsin-Yuan Huang, M Cerezo, Kunal Sharma, Andrew Sornborger, Lukasz Cincio, and Patrick J Coles. 69]Matthias C Caro、Hsin-Yuan Huang、M Cerezo、Kunal Sharma、Andrew Sornborger、Lukasz Cincio、Patrick J Coles。
訳抜け防止モード: [69 ]Matthias C Caro, Hsin-Yuan Huang, M Cerezo, Kunal Sharma, Andrew Sornborger, Lukasz Cincio パトリック・J・コールズ(Patrick J Coles)。
0.79
Generalization in quantum machine learning from few training data. 少ないトレーニングデータからの量子機械学習の一般化。 0.83
arXiv preprint arXiv:2111.05292, 2021. arXiv preprint arXiv:2111.05292, 2021 0.40
[70] Yuxuan Du, Zhuozhuo Tu, Xiao Yuan, and Dacheng Tao. [70]Yuxuan Du、Zhuozhuo Tu、Xiao Yuan、Dacheng Tao。 0.32
Efficient measure for the expressivity of variational quantum algorithms. 変分量子アルゴリズムの表現率の効率的な測定方法 0.85
Physical Review Letters, 128(8):080506, 2022. 書評 128(8):080506, 2022年。 0.63
[71] Hsin-Yuan Huang, Richard Kueng, and John Preskill. [71]Hsin-Yuan Huang、Richard Kueng、John Preskill。 0.81
Information-theoreti c bounds on quantum advantage in machine learning. 機械学習における量子優位性に関する情報理論境界 0.69
Physical Review Letters, 126(19):190505, 2021. 書評 126(19): 190505, 2021。 0.55
[72] Junyu Liu, Khadijeh Najafi, Kunal Sharma, Francesco Tacchino, Liang Jiang, and Antonio Mezzacapo. 72] ユンユ・リュー、ハディイェ・ナジャフィ、クナル・シャールマ、フランチェスコ・タッキノ、梁江、アントニオ・メッツァカポ 0.45
An analytic theory for the dynamics of wide quantum neural networks, 2022. 広帯域量子ニューラルネットワークのダイナミクスに関する解析理論,2022年 0.69
arXiv:2203.16711v1. arXiv:2203.16711v1。 0.37
[73] Yang Qian, Xinbiao Wang, Yuxuan Du, Xingyao Wu, and Dacheng Tao. [73]ヤン・チャン、シンビアオ・ワン、ユクサン・ドゥ、シンヤオ・ウー、ダッチェン・タオ。 0.43
The dilemma of quantum neural networks. 量子ニューラルネットワークのジレンマ。 0.56
arXiv preprint arXiv:2106.04975, 2021. arxiv プレプリント arxiv:2106.04975, 2021。 0.41
[74] Maria Kieferova, Ortiz Marrero Carlos, and Nathan Wiebe. 74] Maria Kieferova, Ortiz Marrero Carlos, Nathan Wiebe。 0.33
Quantum generative training using r\’enyi divergences. r\’enyi divergencesを用いた量子生成訓練 0.79
arXiv preprint arXiv:2106.09567, 2021. arXiv preprint arXiv:2106.09567, 2021 0.40
[75] Jarrod R McClean, Sergio Boixo, Vadim N Smelyanskiy, Ryan Babbush, and Hartmut Neven. Jarrod R McClean氏、Sergio Boixo氏、Vadim N Smelyanskiy氏、Ryan Babbush氏、Hartmut Neven氏。 0.34
Barren plateaus in quantum neural network training landscapes. 量子ニューラルネットワークトレーニングランドスケープにおけるバレンプラトー 0.70
Nature communications, 9(1):1–6, 2018. ナチュラル・コミュニケーションズ、2018年1月9日:1-6日。 0.48
[76] Kaining Zhang, Min-Hsiu Hsieh, Liu Liu, and Dacheng Tao. [76]開明張、民Hsiu Hsieh、Liu Liu、Dacheng Tao。 0.30
Toward trainability of deep quantum neural networks. 深部量子ニューラルネットワークの訓練性に向けて 0.79
arXiv preprint arXiv:2112.15002, 2021. arXiv preprint arXiv:2112.15002, 2021 0.40
[77] Xun Gao, Eric R Anschuetz, Sheng-Tao Wang, J Ignacio Cirac, and Mikhail D Lukin. [77]Xun Gao, Eric R Anschuetz, Sheng-Tao Wang, J Ignacio Cirac, Mikhail D Lukin。 0.40
Enhancing genera- tive models via quantum correlations. 属の強化- 量子相関による tedモデルです 0.65
arXiv preprint arXiv:2101.08354, 2021. arXiv preprint arXiv:2101.08354, 2021 0.40
[78] Arthur Gretton, Karsten M. Borgwardt, Malte J. Rasch, Bernhard Sch¨olkopf, and Alexander Smola. アーサー・グレットン、カルステン・M・ボルグワード、マルテ・J・ラシュ、ベルンハルト・シュ・ソルコプフ、アレクサンドル・スモラ。 0.49
A kernel two-sample test. カーネルの2サンプルテスト。 0.74
J. Mach. Learn. Res., 13(null):723–773, mar 2012. j・マッハ 学ぶ。 res., 13(null):723–773, mar 2012 を参照。 0.62
[79] Vladimir Vapnik. ウラジーミル・ヴァプニク(Vapnik)。 0.48
The nature of statistical learning the- 9 統計的学習の性質- 9 0.58
ory. Springer science & business media, 1999. オリー スプリンガー・サイエンス・アンド・ビジネス・メディア、1999年。 0.33
[80] For simplicity, the definition of N -qubit Ansatz ˆU (θ) in Eq (3) omits some identity operators. [80] 単純性のために、Eq (3) における N-準ビット Ansatz (θ) の定義は恒等作用素を省略する。 0.77
The complete description for the l-th layer is I l-th 層の完全な記述は i である 0.79
dN−k ⊗ ˆUl(θ). dN−k は、Ul(θ) である。 0.61
[81] GK Dziugaite, DM Roy, and Z Ghahramani. 81] gk dziugaite、dm roy、z ghahramani。 0.45
Training generative neural networks via maximum mean discrepancy optimization. 最大平均偏差最適化による生成ニューラルネットワークの訓練 0.83
In Uncertainty in Artificial Intelligence-Proceed ings of the 31st Conference, UAI 2015, pages 258–267, 2015. 第31回aiカンファレンス(uai 2015, pages 258-267, 2015)の人工知能分野における不確実性 0.63
[82] k(·,·) is quantum means that the specified kernel can be efficiently computed by quantum algorithms. 82] k(·,·) は、指定されたカーネルが量子アルゴリズムによって効率的に計算できることを意味する。 0.82
Representative examples are linear kernel and polynomial kernels [95]. 代表的な例は線形カーネルと多項式カーネル [95] である。 0.68
[83] Geoffrey E Hinton. ジェフリー・E・ヒントン(Geoffrey E Hinton) 0.57
A practical guide to training restricted boltzmann machines. 制限されたボルツマン機械の訓練に関する実践的ガイド。 0.60
In Neural networks: Tricks of the trade, pages 599–619. In Neural Network: Tricks of the Trade, Page 599-619。 0.44
Springer, 2012. スプリンガー、2012年。 0.49
[84] Michael A Nielsen and Isaac L Chuang. 84] マイケル・ア・ニールセンと アイザック・l・チュアン 0.58
Quantum computation and quantum information. 量子計算と量子情報。 0.74
Cambridge University Press, 2010. ケンブリッジ大学出版局、2010年。 0.61
[85] Armin Lederer, Jonas Umlauft, and Sandra Hirche. 85] アルミン・レッデラー、ジョナス・ウンラウフト、サンドラ・ヒルシュ 0.34
Uniform Error Bounds for Gaussian Process Regression with Application to Safe Control. ガウス過程の回帰に対する一様誤差境界と安全な制御への応用 0.69
Curran Associates Inc., Red Hook, NY, USA, 2019. カーラン・アソシエイツ(Curran Associates Inc., Red Hook, NY, USA, 2019)。 0.63
[86] Carlos Bravo-Prieto, Julien Baglio, Marco C`e, Anthony Francis, Dorota M Grabowska, and Stefano Carrazza. [86]カルロス・ブラボー=プリエト、ジュリアン・バリオ、マルコ・セ、アンソニー・フランシス、ドロタ・m・グラボワスカ、ステファノ・カラッツァ。
訳抜け防止モード: [86 ]Carlos Bravo - Prieto, Julien Baglio, Marco C`e, アンソニー・フランシス、ドロタ・M・グラボースカ、ステファノ・カラザ。
0.74
Style-based quantum generative adversarial networks for monte carlo events. モンテカルロ事象のスタイルに基づく量子生成型逆ネットワーク 0.64
arXiv preprint arXiv:2110.06933, 2021. arXiv preprint arXiv:2110.06933, 2021 0.40
[87] Francois-Xavier Briol, Alessandro Barp, Andrew B Duncan, and Mark Girolami. [87]フランソワ=ザビエル・ブライオール、アレッサンドロ・バープ、アンドリュー・b・ダンカン、マーク・ジロラミ 0.45
Statistical inference for generative models with maximum mean discrepancy. 最大平均差を持つ生成モデルの統計的推論 0.78
arXiv preprint arXiv:1906.05944, 2019. arxiv プレプリント arxiv: 1906.05944, 2019 0.42
[88] Shouvanik Chakrabarti, Huang Yiming, Tongyang Li, Soheil Feizi, and Xiaodi Wu. [88]Shouvanik Chakrabarti, Huang Yiming, Tongyang Li, Soheil Feizi, Xiaodi Wu 0.33
Quantum wasserstein generative adversarial networks. quantum wasserstein generative adversarial networks の略。 0.79
Advances in Neural Information Processing Systems, 32, 2019. ニューラル・インフォメーション・プロセッシング・システムズ32, 2019の進歩。 0.49
[89] David Amaro, Carlo Modica, Matthias Rosenkranz, Mattia Fiorentini, Marcello Benedetti, and Michael Lubasch. ダビッド・アマロ、カルロ・モディカ、マティアス・ローゼンクランツ、マティア・フィオレンティーニ、マルチェロ・ベネデッティ、マイケル・ルバッシュ 0.49
Filtering variational quantum algorithms for combinatorial optimization. 組合せ最適化のための変分量子アルゴリズムのフィルタリング 0.80
Quantum Science and Technology, 7(1):015021, 2022. 量子科学・技術 7(1):015021, 2022 0.64
[90] M Bilkis, M Cerezo, Guillaume Verdon, Patrick J Coles, and Lukasz Cincio. M Bilkis、M Cerezo、Guillaume Verdon、Patrick J Coles、Lukasz Cincio。 0.25
A semi-agnostic ansatz with variable structure for quantum machine learning. 量子機械学習のための可変構造を持つ半無知ansatz 0.80
arXiv preprint arXiv:2103.06712, 2021. arXiv preprint arXiv:2103.06712, 2021 0.40
[91] Yuxuan Du, Tao Huang, Shan You, Min-Hsiu Hsieh, and Dacheng Tao. [91]Yuxuan Du、Tao Huang、Shan You、Min-Hsiu Hsieh、Dacheng Tao。 0.36
Quantum circuit architecture search: error mitigation and trainability enhancement for variational quantum solvers. 量子回路アーキテクチャ探索: 変分量子解法における誤差緩和とトレーニング可能性向上 0.85
arXiv preprint arXiv:2010.10217, 2020. arxiv プレプリント arxiv:2010.10217, 2020 0.43
[92] Kehuan Linghu, Yang Qian, Ruixia Wang, Meng-Jun Hu, Zhiyuan Li, Xuegang Li, Huikai Xu, Jingning Zhang, Teng Ma, Peng Zhao, et al Quantum circuit architecture search on a superconducting processor. [92]Kehuan Linghu, Yang Qian, Ruixia Wang, Meng-Jun Hu, Zhiyuan Li, Xuegang Li, Huikai Xu, Jingning Zhang, Teng Ma, Peng Zhao, et al Quantum circuit architecture search on a virtualing processor。
訳抜け防止モード: [92 ]ケフアン・リン(Kehuan Linghu)、ヤン・チャン(Yang Qian)、ルクシア・ワン(Ruixia Wang) Meng - Jun Hu, Zhiyuan Li, Xuegang Li, Huikai Xu, Jingning Zhang, Teng Ma, Peng Zhao, et al Quantum circuit architecture search on a superconducting processor。
0.73
arXiv preprint arXiv:2201.00934, 2022. arXiv preprint arXiv:2201.00934, 2022 0.40
[93] En-Jui Kuo, Yao-Lung L Fang, and Samuel Yen-Chi Chen. [93]九尾円寿、lファング、samuel yenchiチェン 0.41
Quantum architecture search via deep reinforce- 深部強化による量子アーキテクチャ探索- 0.77
英語(論文から抽出)日本語訳スコア
10 Phys. Rev. Lett. 10 Phys Rev. Lett. 0.37
, 121:080406, Aug 2018. 121:080406、2018年8月。 0.63
[113] Sergio Boixo, Sergei V Isakov, Vadim N Smelyanskiy, Ryan Babbush, Nan Ding, Zhang Jiang, Michael J Bremner, John M Martinis, and Hartmut Neven. 113] Sergio Boixo, Sergei V Isakov, Vadim N Smelyanskiy, Ryan Babbush, Nan Ding, Zhang Jiang, Michael J Bremner, John M Martinis, Hartmut Neven。
訳抜け防止モード: [113 ]Sergio Boixo, Sergei V Isakov, Vadim N Smelyanskiy, Ryan Babbush, Nan Ding, Zhang Jiang, Michael J Bremner ジョン・M・マルティニス(John M Martinis)とハートムート・ナブン(Hartmut Neven)。
0.80
Characterizing quantum supremacy in near-term devices. 短期デバイスにおける量子超越性を特徴づける。 0.59
Nature Physics, 14(6):595, 2018. 自然物理学、14(6)595、2018年。 0.73
[114] Qingling Zhu, Sirui Cao, Fusheng Chen, Ming-Cheng Chen, Xiawei Chen, Tung-Hsun Chung, Hui Deng, Yajie Du, Daojin Fan, Ming Gong, Cheng Guo, Chu Guo, Shaojun Guo, Lianchen Han, Linyin Hong, He-Liang Huang, Yong-Heng Huo, Liping Li, Na Li, Shaowei Li, Yuan Li, Futian Liang, Chun Lin, Jin Lin, Haoran Qian, Dan Qiao, Hao Rong, Hong Su, Lihua Sun, Liangyuan Wang, Shiyu Wang, Dachao Wu, Yulin Wu, Yu Xu, Kai Yan, Weifeng Yang, Yang Yang, Yangsen Ye, Jianghan Yin, Chong Ying, Jiale Yu, Chen Zha, Cha Zhang, Haibin Zhang, Kaili Zhang, Yiming Zhang, Han Zhao, Youwei Zhao, Liang Zhou, Chao-Yang Lu, Cheng-Zhi Peng, Xiaobo Zhu, and Jian-Wei Pan. [114] Qingling Zhu, Sirui Cao, Fusheng Chen, Ming-Cheng Chen, Xiawei Chen, Tung-Hsun Chung, Hui Deng, Yajie Du, Daojin Fan, Ming Gong, Cheng Guo, Chu Guo, Shaojun Guo, Lianchen Han, Linyin Hong, He-Liang Huang, Yong-Heng Huo, Liping Li, Na Li, Shaowei Li, Yuan Li, Futian Liang, Chun Lin, Jin Lin, Haoran Qian, Dan Qiao, Hao Rong, Hong Su, Lihua Sun, Liangyuan Wang, Shiyu Wang, Dachao Wu, Yulin Wu, Yu Xu, Kai Yan, Weifeng Yang, Yang Yang, Yangsen Ye, Jianghan Yin, Chong Ying, Jiale Yu, Chen Zha, Cha Zhang, Haibin Zhang, Kaili Zhang, Yiming Zhang, Han Zhao, Youwei Zhao, Liang Zhou, Chao-Yang Lu, Cheng-Zhi Peng, Xiaobo Zhu, and Jian-Wei Pan.
訳抜け防止モード: 〔一百四十四年〕清リング朱・曹操・風成陳 明(明)-チェン、シアウェイ・チェン、トゥング-フン・チュン、 フイ・デン、ヤジエ・デュ、ダジン・ファン、ミン・ゴン、チェン・グオ チュ・グオ シャオジュン・グオ リアンチェン・ハン リニン・ホン he - liang huang, yong - heng huo, liping li ナ・リー、シャオエイ・リー、アン・リー、フチアン・リアン、チュン・リン、ジン・リン haoran qian氏、dan qiao氏、hao rong氏、hon su氏、lihua sun氏。 梁元王、王子雄、武太、武雄林 ユー・スー、カイ・ヤン、ワイフェン・ヤン、ヤン・ヤン。 yangsen ye, jianghan yin, chong ying, jiale yu, chen zha, cha zhang, haibin zhang, kaili zhang, yiming zhang, han zhao, youwei zhao, liang zhou, chao - yang lu, cheng - zhi peng, xiaobo zhuとjian - wei pan。
0.73
Quantum computational advantage via 60-qubit 24-cycle random circuit sampling, 2021. 60ビット24サイクルランダム回路サンプリングによる量子計算の優位性 0.81
[115] Scott Aaronson and Lijie Chen. スコット・アーロンソンとリジー・チェン。 0.43
Complexity-theoretic foundations of quantum supremacy experiments. 量子超越実験の複雑性理論基礎 0.76
In 32nd Computational Complexity Conference, page 1, 2017. 2017年1月1日、32th Computational Complexity Conferenceに参加。 0.71
[116] Julia Kempe, Alexei Kitaev, and Oded Regev. [116]ジュリア・ケンペ、アレクセイ・キタエフ、オデド・レゲフ。 0.35
The complexity of the local hamiltonian problem. 地元のハミルトン問題の複雑さ。 0.54
Siam journal on computing, 35(5):1070–1097, 2006. siam journal on computing, 35(5):1070–1097, 2006を参照。 0.79
ment learning. arXiv preprint arXiv:2104.07715, 2021. メントラーニング。 arXiv preprint arXiv:2104.07715, 2021 0.38
[94] Shi-Xin Zhang, Chang-Yu Hsieh, Shengyu Zhang, and Hong Yao. [94]四新張、長雄東、深州張、本陽。 0.41
Differentiable quantum architecture search. 微分可能な量子アーキテクチャ探索。 0.66
arXiv preprint arXiv:2010.08561, 2020. arxiv プレプリント arxiv:2010.08561, 2020 0.43
[95] Maria Schuld and Nathan Killoran. マリア・シュルドとネイサン・キロラン。 0.46
Quantum machine learning in feature hilbert spaces. 特徴ヒルベルト空間における量子機械学習。 0.76
Physical review letters, 122(4):040504, 2019. フィジカル・レビュー・レター 122(4):040504, 2019。 0.79
[96] Marcello Benedetti, Edward Grant, Leonard Wossnig, and Simone Severini. マルチェロ・ベネデッティ、エドワード・グラント、レオナルド・ウォシニ、シモーヌ・セヴェリーニ。 0.41
Adversarial quantum circuit learning for pure state approximation. 純状態近似のための逆量子回路学習 0.77
New Journal of Physics, 21(4):043023, 2019. new journal of physics、21(4):043023、2019年。 0.79
[97] Martin Arjovsky, Soumith Chintala, and L´eon Bottou. [97]Martin Arjovsky, Soumith Chintala, L ́eon Bottou 0.37
Wasserstein generative adversarial networks. wassersteingenerativ e adversarial networks(英語) 0.72
In International Conference on Machine Learning, pages 214–223, 2017. 2017年、International Conference on Machine Learningで214-223頁。 0.86
[98] Mehdi Mirza and Simon Osindero. 98] メフディ・ミルザとサイモン・オシンデロ 0.33
Conditional generative adversarial nets. 条件付き生成敵ネット。 0.66
arXiv preprint arXiv:1411.1784, 2014. arxiv プレプリント arxiv:1411.1784, 2014 0.41
[99] Han Zhang, Tao Xu, Hongsheng Li, Shaoting Zhang, Xiaogang Wang, Xiaolei Huang, and Dimitris N Metaxas. [99]ハン・チャン、タオ・スー、ホンシェン・リー、シャオチン・チャン、シャオガン・ワン、シャオリー・フアン、ディミトリス・n・メタクサス。
訳抜け防止モード: [99 ]ハン・チャン、タオ・チ、ホンシェン・リー、 Shaoting Zhang, Xiaogang Wang, Xiaolei Huang, Dimitris N Metaxas。
0.75
Stackgan: Text to photo-realistic image synthesis with stacked generative adversarial networks. Stackgan: 生成的対向ネットワークを積み重ねた写真リアルな画像合成。 0.72
In Proceedings of the IEEE International Conference on Computer Vision, pages 5907–5915, 2017. ieee international conference on computer visionの議事録には、2017年版5907-5915ページがある。 0.65
[100] Alireza Makhzani, Jonathon Shlens, Navdeep Jaitly, Ian Goodfellow, and Brendan Frey. 100] Alireza Makhzani, Jonathon Shlens, Navdeep Jaitly, Ian Goodfellow, Brendan Frey。 0.36
Adversarial autoencoders. 対訳 オートエンコーダー。 0.51
arXiv preprint arXiv:1511.05644, 2015. arxiv プレプリント arxiv:1511.05644, 2015 0.41
[101] Ian Goodfellow, Yoshua Bengio, and Aaron Courville. 101] イアン・グッドフェルロー、ヨシュア・ベンジオ、アーロン・クールヴィル 0.50
Deep learning. ディープラーニング。 0.37
MIT press, 2016. 2016年、MIT出版。 0.65
[102] Stephen Boyd, Stephen P Boyd, and Lieven Vandenberghe. 102]Stephen Boyd、Stephen P Boyd、およびLieven Vandenberghe。 0.74
Convex optimization. Cambridge university press, 2004. 凸最適化。 ケンブリッジ大学出版局、2004年。 0.64
[103] Maria Schuld, Ville Bergholm, Christian Gogolin, Josh Izaac, and Nathan Killoran. 103]maria schuld、ville bergholm、christian gogolin、josh izaac、nathan killoran。 0.55
Evaluating analytic gradients on quantum hardware. 量子ハードウェアにおける解析勾配の評価 0.83
Physical Review A, 99(3):032331, 2019. フィジカル・レビューA, 99(3):032331, 2019。 0.82
[104] Harry Buhrman, Richard Cleve, John Watrous, and Ronald De Wolf. [104]ハリー・バーマン、リチャード・クレーヴ、ジョン・ワトルー、ロナルド・ド・ウルフ 0.57
Quantum fingerprinting. 量子フィンガープリント。 0.68
Physical Review Letters, 87(16):167902, 2001. 書評 87 16:167902, 2001。 0.37
[105] Hirotada Kobayashi, Keiji Matsumoto, and Tomoyuki Yamakami. [105年)小林広忠、松本敬二、山上具之 0.51
Quantum merlin-arthur proof systems: Are multiple merlins more helpful to arthur? 量子マーリン-アーサー証明系: 複数のマーリンはアーサーにとってより役に立つか? 0.47
In International Symposium on Algorithms and Computation, pages 189– 198. アルゴリズムと計算に関する国際シンポジウム』189-198頁。 0.72
Springer, 2003. [106] Jacob Biamonte. 2003年、春。 ヤコブ・ビアモンテ[106]。 0.55
Universal variational quantum compu- 普遍変分量子コンプ- 0.78
tation. Physical Review A, 103(3):L030401, 2021. テイション 物理書評 A, 103(3):L030401, 2021。 0.59
[107] Nicolas Le Roux and Yoshua Bengio. 107]ニコラ・ル・ルーとヨシュア・ベンジオ 0.46
Representational power of restricted boltzmann machines and deep belief networks. 制限ボルツマンマシンと深い信念ネットワークの表現力。 0.63
Neural computation, 20(6):1631–1649, 2008. ニューラルネットワーク, 20(6):1631–1649, 2008 0.70
[108] Xun Gao and Lu-Ming Duan. [108]Xun GaoとLu-Ming Duan。 0.43
Efficient representation of quantum many-body states with deep neural networks. ディープニューラルネットワークを用いた量子多体状態の効率的な表現 0.72
Nature communications, 8(1):662, 2017. 自然通信 8(1):662, 2017 0.66
[109] Shahar Mendelson. 109]シャハール・メンデルソン。 0.35
A few notes on statistical learning theory. 統計学習理論についてのいくつかの注記。 0.63
In Advanced lectures on machine learning, pages 1–40. 機械学習に関する上級講義では、1-40頁。 0.66
Springer, 2003. [110] Mehryar Mohri, Afshin Rostamizadeh, and Ameet Talwalkar. 2003年、春。 [110]Mehryar Mohri、Afshin Rostamizadeh、Ameet Talwalkar。 0.46
Foundations of Machine Learning. Adaptive Computation and Machine Learning. 機械学習の基礎。 適応計算と機械学習。 0.51
MIT Press, Cambridge, MA, 2 edition, 2018. MIT Press, Cambridge, MA, 2 edition, 2018 0.38
[111] Richard M Dudley. リチャード・M・ダドリー(Richard M Dudley) 0.66
The sizes of compact subsets of hilbert space and continuity of gaussian processes. ヒルベルト空間のコンパクト部分集合の大きさとガウス過程の連続性。 0.72
Journal of Functional Analysis, 1(3):290–330, 1967. Journal of Functional Analysis, 1(3):290–330, 1967。 0.94
[112] Thomas Barthel and Jianfeng Lu. 1112年 トーマス・バーテルとジャンフェン・ル 0.37
Fundamental limitations for measurements in quantum many-body systems. 量子多体系における測定の基本的限界 0.83
英語(論文から抽出)日本語訳スコア
Supplementary Material: “Theory of Quantum Generative Learning Models with 補助材料:「量子生成学習モデルの理論」 0.71
Maximum Mean Discrepancy” 11 SM A: Schematic of QGANs in the discrete and continuous settings 最大平均差」 11 SM A:離散的および連続的な設定におけるQGANのスケジューリング 0.60
For the purpose of elucidating, in this section, we first demonstrate the equivalence of QCBMs and QGANs in the discrete setting when the loss function is specified to be MMD, and then introduce the basic theory of GANs and QGANs, especially for QGANs with MMD loss. 本項では、損失関数がMDDであると指定された場合、まず、離散環境でのQCBMとQGANの等価性を実証し、特にMD損失を有するQGANについて、GANとQGANの基本理論を導入する。
訳抜け防止モード: 本項では,損失関数がMDDであることが特定された場合,まず,離散環境でのQCBMとQGANの等価性を示す。 そして、特にMD損失を有するQGANに対して、GANとQGANの基礎理論を導入する。
0.71
Equivalence between QCBMs and QGANs when Q is discrete. Q が離散であるとき QCBM と QGAN の等価性。 0.77
In accordance with the explanations in Refs. Refsの説明に従って。 0.60
[48, 96], when QGAN is applied to estimate a discrete distribution Q (e g , quantum state approximation), the quantum generator aims to directly capture the distribution of the data itself. [48, 96] 離散分布q(量子状態近似など)を推定するためにqganを適用すると、量子生成器はデータそのものの分布を直接捉えることを目的としている。 0.84
This violates the criteria of implicit generative models, where a stochastic process is employed to draw samples from the underlying data distribution after training. これは暗黙的な生成モデルの基準に反し、トレーニング後に基礎となるデータ分布からサンプルを引き出す確率過程が用いられる。 0.81
More specifically, when Q is discrete, the output of the quantum circuit for both QCBM and QGAN takes the form Pθ(i) = Tr(Πi ˆU (θ)ρ0 ˆU (θ)†) in Eq (1). より具体的には、Q が離散であるとき、QCBM と QGAN の両方の量子回路の出力は、Eq (1) において Pθ(i) = Tr(i) = Tr(i)ρ0 >U (θ) となる。 0.79
The concept ‘adversarial’ originates from the way of optimizing θ. adversarial'という概念は、θ を最適化する方法に由来する。 0.68
Instead of using a deterministic distance measure (e g , KL divergence) as in QCBMs, QGANs utilize a discriminator Dγ, implemented by either trainable parameterized quantum circuit or a neural network, to maximally separate Pθ(i) from Q. The behavior of simultaneously update θ (to minimize the loss) and γ (to maximize the loss) is termed as quantum generative adversarial learning. QCBMのように決定論的距離測度(例えばKL偏差)を使用する代わりに、QGANは、トレーニング可能なパラメータ化量子回路またはニューラルネットワークによって実装された判別器Dγを用いて、Pθ(i)をQから最大に分離する。
訳抜け防止モード: QCBMのように決定論的距離測度(例えばKL発散)を使う代わりに。 QGANは、訓練可能なパラメータ化量子回路またはニューラルネットワークによって実装された識別器Dγを使用する。 Pθ(i) を Q から最大に分離する。 損失を最小限に抑えるために 損失を最大化するために は量子生成逆学習(quantum generative adversarial learning)と呼ばれる。
0.77
With this regard, when we replace the trainable Dγ by the deterministic measure MMD, QGAN takes an equivalent mathematical form with QCBM. これに関して、訓練可能な Dγ を決定論的測度 MMD で置き換えると、QGAN は QCBM と等価な数学的形式を取る。 0.72
Basic theory of (classical) GANs and QGANs when Q is continuous. Q が連続であるとき、(古典的な) GAN と QGAN の基本理論。 0.76
The fundamental mechanism of GAN [6] and its variations [97–100] is as follows. GAN [6] とその変分 [97-100] の基本機構は以下の通りである。 0.84
GAN sets up a two-players game: the generator G creates data that pretends to come from the real data distribution Q to fool the discriminator D, while D tries to distinguish the fake generated data from the real training data. ジェネレータGは、実際のデータ配信Qから来るふりをして識別器Dを騙すデータを生成し、Dは実際のトレーニングデータと偽の生成されたデータを区別しようとする。 0.68
Mathematically, G and D corresponds to two a differentiable functions. 数学的には、G と D は二つの可微分函数に対応する。 0.62
In particular, the input of G is a latent variable z and its output is x, i.e., G : G(z, θ) → x with θ being trainable parameters for G. The role of the latent variable z is ensuring GAN to be a structured probabilistic model [101]. 特に、G の入力は潜在変数 z であり、その出力は x、すなわち G : G(z, θ) → x であり、θ は G の訓練可能なパラメータである。
訳抜け防止モード: 特に、G の入力は潜在変数 z である。 そしてその出力は x、すなわち G : G(z) である。 θ ) → x で θ を G の訓練可能なパラメータとする。 GANは構造化確率モデル [101 ] となる。
0.69
The input of D can either be the generated data x or the real data y ∼ Q and its output corresponds to the binary classification result (real or fake), respectively. Dの入力は生成されたデータ x または実データ y > Q のいずれかであり、その出力はそれぞれのバイナリ分類結果(実または偽)に対応する。 0.81
The mathematical expression of D yields D : D(x, y, γ) → (0, 1) with γ being trainable parameters for D. If the distribution learned by G equals to the real data distribution, i.e., Pθ = Q, then D can never discriminate between the generated data and the real data and this unique solution is called Nash equilibrium [6]. D の数学的表現は D : D(x, y, γ) → (0, 1) となり、γ は D の訓練可能なパラメータである。G によって学習された分布が実データ分布、すなわち Pθ = Q と等しいならば、D は生成したデータと実データとを区別することができず、この一意解は Nash equilibrium [6] と呼ばれる。 0.83
To reach the Nash equilibrium, the training process of GANs corresponds to the minimax optimization. ナッシュ平衡に到達するために、GANのトレーニングプロセスはミニマックス最適化に対応する。 0.67
Namely, the discriminator D updates γ to maximize the classification accuracy, while the generator G updates θ to minimize the classification accuracy. すなわち、識別器Dがγを更新して分類精度を最大化し、生成器Gがθを更新して分類精度を最小化する。 0.74
With this regard, the optimization of GAN follows これに関して、GANの最適化は以下の通りである。 0.51
(A1) where Q is the distribution of training dataset, and PZ is the probability distribution of the latent variable z. (a1) ここでqはトレーニングデータセットの分布であり、pzは潜在変数zの確率分布である。 0.78
In general, Gθ and Dγ are constructed by deep neural networks, and their parameters are updated iteratively using gradient descent methods [102]. 一般に、GθとDγはディープニューラルネットワークによって構成され、そのパラメータは勾配降下法[102]を用いて反復的に更新される。 0.65
γ L(Dγ(Gθ(z)), Dγ(x)) := Ex∼Q[Dγ(x)] + Ez∼PZ [(1 − Dγ(Gθ(z))] , γ L(Dγ(Gθ(z)), Dγ(x)) := Ex\Q[Dγ(x)] + Ez\PZ [(1 − Dγ(Gθ(z))] , 0.45
max min θ The key difference between GANs and QGANs is the way of implementing Gθ and Dγ. マックス ミン θ GANとQGANの主な違いは、GθとDγを実装する方法である。 0.60
Particularly, in QGANs, either G, D, or both can be realized by variational quantum circuits instead of deep neural networks. 特にQGANでは、G、D、または両方がディープニューラルネットワークの代わりに変動量子回路によって実現される。 0.74
The training strategy of QGANs is similar to classical GANs. QGANのトレーニング戦略は古典的なGANと似ている。 0.73
In this study, we focus on QGANs with MMD loss, which can be treated as the quantum extension of MMD-GAN [81]. 本研究では,MD-GAN[81]の量子拡張として扱うことができるMDD損失を伴うQGANに着目した。 0.78
Unlike conventional GANs and QGANs, MMD-GAN and QGAN replace a trainable discriminator with MMD. 従来のGANやQGANとは異なり、MDD-GANやQGANは訓練可能な識別器をMDDに置き換える。 0.47
In this way, the family of discriminators is substituted with a family H of test functions, closed under negation, where the optimization of D can be completed with the analytical form. このようにして、判別器の族は、d の最適化を解析形式で完結できるネゲーションの下で閉じたテスト関数の族 h で置き換えられる。 0.65
Therefore, the goal of QGANs is finding an estimator minimizing an unbiased MMD loss, i.e., したがって、qgansの目標は、偏りのないmmd損失を最小化する推定器を見つけることである。 0.63
k(y(j), y(j k(y(j), y(j) 0.42
(cid:48) )) − (cid:48) )) − 0.41
2 nm k(x (i), y 2nm k(x) (i)y 0.36
(j)) (A2) MMD2 (j) (A2) MMD2 0.39
U (Pθ || Q) := where x u (pθ || q) := x である。 0.73
(i) ∼ Pθ and y (j) ∼ Q. (i)pθ と y 略称は「q」。 0.59
1 n(n − 1) 1 n(n − 1) である。 0.59
n(cid:88) i(cid:54)=i(cid:48) n(第88回) i(cid:54)=i(cid:48) 0.49
(cid:48) k(x(i), x(i (cid:48) k(x(i), x(i) 0.48
)) + 1 m(m − 1) )) + 1 m(m − 1) である。 0.54
j(cid:54)=j(cid:48) j(cid:54)=j(cid:48) 0.38
m(cid:88) (cid:88) m(cid:88) (cid:88) 0.41
i,j For self-consistency, in this section, we introduce the elementary backgrounds of the optimization of QGLMs with i.j. 自己整合性について、本節ではQGLMの最適化の基本的な背景を紹介する。 0.50
MMD loss. See Ref. MMDの喪失。 ref参照。 0.52
[78] for elaborations. SM B: Optimization of QGANs with MMD loss 実験用[78]. SM B:MD損失を伴うQGANの最適化 0.71
英語(論文から抽出)日本語訳スコア
Pk(X ) be the set of Borel probability measures µ such that(cid:82) Πk(µ) =(cid:82) k(·, y)µ(dy), interpreted as a Bochner integral, defines a continuous embedding from Pk(X ) into Hk. Pk(X) はボレル確率測度 μ の集合で、(cid:82) = (cid:82) k(·, y)μ(dy) はボヒナー積分として解釈され、Pk(X) から Hk への連続埋め込みを定義する。
訳抜け防止モード: Pk(X) は、(cid:82 ) = ( cid:82 ) k ( ·,) となるようなボレル確率測度 μ の集合である。 y)μ(dy) はボヒナー積分として解釈され、Pk(X) から Hk への連続埋め込みを定義する。
0.81
The MMD loss. その... MMDの喪失。 0.29
Let k : X × X → R be a Borel measurable kernel on X , and consider the reproducing kernel Hilbert space Hk associated with k (see Berlinet and Thomas-Agnan [2004]), equipped with inner product (cid:104)·,·(cid:105)Hk . k : X × X → R を X 上のボレル可測核とし、k に付随する再生核ヒルベルト空間 Hk を、内部積 (cid:104)·,·(cid:105)Hk を備える。
訳抜け防止モード: k : X × X → R を X 上のボレル可測核とする。 そして、k に付随する再生カーネルヒルベルト空間 Hk を考える(Berlinet and Thomas - Agnan [2004 ] を参照)。 内部積 (cid:104)·,·(cid:105)Hk を備える。
0.74
Let k(x, x)µ(dx) < ∞. k(x, x)μ(dx) < ∞ とする。 0.85
The kernel mean embedding mean embedding pulls-back the metric on Hk generated by the inner product to define a pseudo- metric on Pk(X ) called the maximum mean discrepancy MMD: Pk(X ) × Pk(X ) → R+, i.e., 核平均埋め込み平均は、内積によって生成される Hk 上の計量を埋め込んで、最大平均離散性 MMD と呼ばれる Pk(X ) 上の擬計量を定義する。 0.55
(cid:112) X (出典:112) X 0.55
MMD(P1 || P2) = (cid:107)Πk(P1) − Πk(P2)(cid:107)Hk . mmd(p1 || p2) = (cid:107)πk(p1) − πk(p2)(cid:107)hk である。 0.57
(cid:13)(cid:13)(cid :13)(cid:13)(cid:90) (cid:13)(cid:13)(cid :13)(cid:90) 0.44
(cid:90) (cid:13)(cid:13)(cid :13)(cid:13)2 (cid:90) (cid:13)(cid:13)(cid :13)2 0.43
The MMD loss has a particularly simple expression that can be derived through an application of the reproducing MMD損失は、再生の応用により導出できる特に単純な表現を持つ
訳抜け防止モード: MMD損失は特に単純な表現を持つ 再生の応用によって導き出すことができる
0.78
property (f (x) = (cid:104)f, k(·, x)(cid:105)Hk ), i.e., 性質 (f (x) = (cid:104)f, k(·, x)(cid:105)hk )。 0.75
(cid:90) (cid:90) MMD2(P1 || P2) := Hk k(x, y) P1(dx) P2(dy) + =Ex,y∼P1(k(x, y)) − 2 Ex∼P1,y∼P2(k(x, y)) + Ex,y∼P2(k(x, y)), (cid:90) (cid:90) MMD2(P1 || P2) := Hk k(x, y) P1(dx) P2(dy) +=Ex,y'P1(k(x, y)) − 2 Ex'P1,y'P2(k(x, y)) + Ex,y'P2(k(x, y))) 0.42
(cid:90) k(·, x) P1(dx) − (cid:90) k(·, x) P1(dx) − 0.45
k(x, y) P1(dx) P1(dy) − 2 k(x, y) P1(dx) P1(dy) − 2 0.47
k(·, x) P2(dx) k(·, x) P2(dx) 0.39
(cid:90) = (cid:90) = 0.41
X X X X X X X X X X X X 0.43
(cid:90) (cid:90) (cid:90) (cid:90) 0.39
X X k(x, y) P2(dx) P2(dy) X X k(x, y) P2(dx) P2(dy) 0.44
(B2) which provides a closed form expression up to calculation of expectations. (B2) これは期待値の計算まで閉じた形式表現を提供する。 0.59
Optimization of QCBMs with MMD loss. MMD損失を考慮したQCBMの最適化 0.75
The goal of QCBMs is finding an estimator minimizing the loss QCBMの目標は損失を最小限に抑える推定器を見つけることである 0.69
function MMD2(Pθ || Q) in Eq (B2), where Pθ is defined in Eq (1). Eq (B2) における関数 MMD2(Pθ || Q) は、Pθ は Eq (1) で定義される。 0.79
The optimization is completed by the gradient based descent optimizer. 最適化は勾配に基づく降下最適化器で完了する。 0.77
The updating rule satisfies θ(t+1) = θ(t) −η∇θ MMD2(Pθ || Q) and η is the learning rate. 更新規則はθ(t+1) = θ(t) −η θ mmd2(pθ || q) を満たすが、η は学習率である。
訳抜け防止モード: 更新規則は θ(t+1 ) = θ(t ) −η θ MMD2(Pθ || Q ) を満たす。 ηは学習率です
0.85
Concretely, the partial derivative of the j-th entry satisfies 具体的には、j-thエントリーの偏微分が満足する 0.38
12 (B1) = = 12 (B1) = = 0.44
= ∂ θj (cid:18) = ∂θj (cid:18) 0.41
k(x, y) ∂ MMD2(Pθ || Q) ∂ Ex,y∼Pθ (k(x, k(x, y) ∂ mmd2(pθ || q) ∂ ex, y\pθ (k(x,)) である。 0.53
y)) − 2 Ex∼Pθ ,y∼Q(k(x, y) − 2 ex-pθ , y-q(k(x,) である。 0.66
y)) + Ex,y∼Q(k(x, y) + ex,y\q(k(x,x) である。 0.63
y)) (cid:88) (cid:88) 2 ej y) (cid:88) (cid:88) 2 ej 0.45
(x)(cid:1) + Pθ (x)(cid:1) + Pθ 0.44
(x)(cid:0)Pθ + π k(x, (x)(cid:0)Pθ + π k(x, 0.48
y)(cid:0)Pθ y)(cid:0)Pθ 0.41
(y)(cid:0)Pθ + π (cid:88) 2 ej (y)(cid:0)Pθ + π (cid:88) 2 ej 0.44
(x)(cid:1) Q (x)(cid:1)q 0.46
(y) k(x, y)(cid:0)Pθ + π 2 ej (y) k(x, y)(cid:0)Pθ + π 2 ej 0.44
(x) − Pθ − π ,y∼Pθ (k(x, (x) − pθ − π , y\pθ (k(x,)) 0.44
y)) − Ex∼P 2 ej (x) − Pθ − π y) - エクセプ 2 ej (x) − Pθ − π 0.40
∂ θj + Pθ(x) ∂ θj + Pθ(x) 0.47
∂ Pθ(x) ∂ θj ・Pθ(x) ・Pθj 0.73
∂ Pθ(y) ∂ θj ・Pθ(y) ・Pθj 0.70
(cid:88) Pθ(y) (cid:88) Pθ(y) 0.44
k(x, y) (cid:19) k(x, y) (cid:19) 0.41
− 2 x,y x,y − 2 x,y x,y 0.42
x,y ej ej θ − π 2 ,y∼Q(k(x, y)) + 2 Ex∼P x,y ej ej θ − π 2 ,y'Q(k(x, y)) + 2 Ex'P 0.43
x,y −2 =Ex∼P −2 Ex∼P x,y -2 = Ex-P −2 Ex-P 0.32
θ + π 2 ∂ Pθ(x) ∂ θj θ + π 2 ・Pθ(x) ・Pθj 0.58
Q(y) 2 ej (y) − Pθ − π Q(y) 2 ej (y) − Pθ − π 0.45
2 ej (y)(cid:1)(cid:1) 2 ej (y)(cid:1) (cid:1) 0.44
,y∼Pθ (k(x, y)) + Ex∼Pθ ,y∼P ,y-Pθ (k(x, y)) + Ex-Pθ ,y-P 0.29
θ + π 2 (k(x, y)) − Ex∼Pθ ,y∼P θ + π 2 (k(x, y)) − Ex-Pθ ,y-P 0.40
ej θ − π 2 ej θ − π 2 0.42
ej (k(x, y)) ej (k(x, y)) 0.42
ej θ + π 2 ej θ + π 2 0.42
(B3) where the last second equality employs the parameter shift rule [103] to calculate the partial derivative ∂ Pθ (b3) 最後の第二等式がパラメータシフト規則[103]を用いて偏微分 ∂ pθ を計算する場合 0.84
(y)/∂ θj and ∂ Pθ (y)/∂ θj および ∂ Pθ 0.87
(x)/∂ θj. According to Lemma 1, the six expectation terms in Eq (B3) can be analytically and efficiently calculated when the k(·,·) is quantum. (x)/∂ θj。 補題 1 によれば、eq (b3) における6つの期待項は k(·,·) が量子であるときに解析的かつ効率的に計算できる。 0.62
In the case of classical kernels, the six expectation terms in Eq (B3) are estimated by the sample mean. 古典的核の場合、Eq(B3)の6つの期待項はサンプル平均によって推定される。 0.81
θ − π 2 ej θ − π 2 ej 0.42
,y∼Q(k(x, y)), ,y\q(k(x, y)) である。 0.64
Optimization of QGANs with MMD loss. MMD損失を考慮したQGANの最適化 0.73
We next derive the gradients of QGANs with respect to the (cid:96)-th entry. 次に、(cid:96)-thエントリに関するQGANの勾配を導出する。 0.73
Since the evaluation of expectation is runtime expensive when Q is continuous, QGANs employ an unbiased estimator U (Pθ || Q). Q が連続であるとき、予測の評価は実行時費用がかかるので、QGAN は不偏推定器 U (Pθ || Q) を用いる。 0.72
of the MMD loss in Eq (A2) to update θ. Eq (A2) における MMD 損失の θ を更新する。 0.88
The updating rule at the t-th iteration is θ(t+1) = θ(t) −η∇θ MMD2 According to the chain rule, we have t 番目の反復における更新規則は θ(t+1) = θ(t) −η θ mmd2 である。 0.76
∂ MMD2 ∂ 1 ∂ MMD2 ∂ 1 0.43
n(n−1) ∂ θ(cid:96) n(n−1) 禅θ(第96回) 0.46
U (Pθ || Q) (cid:80)n n(cid:88) U (Pθ || Q) (cid:80)n(cid:88) 0.44
= = i(cid:54)=i(cid:48) k(Gθ(z(i)), Gθ(z(i ∂ θ(cid:96) (cid:48) ∂k(Gθ(z(i)), Gθ(z(i = = i(cid:54)=i(cid:48) k(Gθ(z(i)), Gθ(z(i ∂ θ(cid:96) (cid:48) ∂k(Gθ(z(i)), Gθ(z(i)) 0.44
))) i(cid:54)=i(cid:48) ∂k(Gθ(z ))) i(cid:54)=i(cid:48) ∂k(Gθ(z) 0.40
(i)), y (j)) ∂Gθ(z(i)) (i)、y (j) ∂Gθ(z(i)) 0.35
∂Gθ(z(i)) ∂Gθ(z(i)) ∂Gθ(z(i)) ∂Gθ(z(i)) 0.47
∂ θ(cid:96) 1 禅θ(第96回) 1 0.46
(cid:88) n(n − 1) 2 nm (cid:88) n(n − 1) 2nm 0.39
i,j (cid:80) i.j. (cid:80) 0.39
i,j k(Gθ(z i,j k(gθ(z) である。 0.64
(i)), y (j)) (cid:48) (i)、y (j) (cid:48) 0.33
))) − 2 nm ))) − 2 nm 0.42
∂Gθ(z(i)) ∂ θ(cid:96) ∂Gθ(z(i)) 禅θ(第96回) 0.48
+ ∂k(Gθ(z(i)), Gθ(z(i + ∂k(Gθ(z(i)), Gθ(z(i)) 0.46
∂Gθ(z(i(cid:48))) ∂Gθ(z(i(cid:48)) 0.45
(cid:48) ))) (cid:48) ))) 0.41
(cid:48) )) (cid:48) )) 0.41
∂Gθ(z(i ∂ θ(cid:96) ∂gθ(z(i ∂ θ(cid:96) 0.42
− (B4) (B5) − (B4) (B5) 0.46
英語(論文から抽出)日本語訳スコア
)))/∂Gθ(z(i)) where the first equality uses ∂ can be easily computed for standard kernels, and the derivative ∂Gθ(z(i))/∂ θ(cid:96) for ∀i ∈ n, j ∈ [m] can be computed via the parameter shift rule. ))/∂Gθ(z(i)) は、最初の等式が ∂ を使用するとき、標準核に対して容易に計算でき、偏微分 ∂Gθ(z(i))/∂ θ(cid:96) は、パラメータシフト則によって計算できる。 0.77
Therefore, the gradients of QGANs with MMD loss can be achieved. したがって、MD損失を伴うQGANの勾配を達成できる。 0.66
))/∂ θ(cid:96) = 0, each derivative ∂k(Gθ(z(i)), Gθ(z(i ))/∂ θ(cid:96) = 0, each derivative ∂k(Gθ(z(i)), Gθ(z(i)) 0.48
j(cid:54)=j(cid:48) k(y(j), y(j j(cid:54)=j(cid:48) k(y(j), y(j) 0.46
m(m−1) 1 (cid:80)m m(m−1) 1 (cid:80)m 0.42
(cid:48) 13 (cid:48) 13 0.62
(cid:48) We first introduce the definition of kernels. (cid:48) まずカーネルの定義を紹介します。 0.52
SM C: Proof of Lemma 1 sm c: lemma 1 の証明 0.48
Definition 1 (Definition 2, [95]). 定義 1 (Definition 2, [95])。 0.31
Let X be a nonempty set, called the input set. X を空でない集合とし、入力集合と呼ぶ。 0.74
A function k : X × X → C is called efficiently prepared by a diagonalized mixed state σ =(cid:80) kernel if the Gram matrix K with entries Km,m(cid:48) = k(xm, xm Proof of Lemma 1. 関数 k : x × x → c が対角化混合状態 σ =(cid:80) カーネルによって効率的に合成されるとは、エントリ km,m(cid:48) = k(xm, xm の補題 1 の証明である。 0.74
Here we separately elaborate on the calculation of MMD loss when the target distribution Q can be Diagonalized mixed states. ここでは、ターゲット分布Qが対角混合状態である場合のMDD損失の計算について、別々に詳述する。 0.67
In this setting, the quantum kernel corresponds to the linear kernel, i.e., k(a, a(cid:48)) = (cid:104)a, a(cid:48) (cid:105). この設定では、量子カーネルは線形核、すなわち k(a, a(cid:48)) = (cid:104)a, a(cid:48) (cid:105) に対応する。 0.80
Recall the definition of the MMD loss is MMD2(Pθ || Q) = E(k(x, x(cid:48))) − 2 E(k(x, y)) + E(k(y, y(cid:48))). MMD2(Pθ || Q) = E(k(x, x(cid:48))) − 2 E(k(x, y)) + E(k(y, y(cid:48))) である。
訳抜け防止モード: MMD損失の定義を、MDD2(Pθ || Q ) = E(k(x,)) と再定義する。 x(cid:48 ) ) − 2 E(k(x, y ) ) + E(k(y , y(cid:48 ) )。
0.89
The first term Q(y)|y(cid:105)(cid:104)y | or a pure quantum state |Ψ(cid:105) =(cid:80) 第1期 Q(y)|y(cid:105)(cid:104)y | または純粋量子状態 |\(cid:105) = (cid:80) 0.53
(cid:112)Q(y)|y(cid:105). (cid:112)Q(y)|y(cid:105)。 0.80
) is positive semi-definite. は正の半定義である。 0.46
y y (cid:48) うん うん (cid:48) 0.43
equals to Similarly, the second term equals to に等しい 同様に、第二項は等しい 0.72
E (k(x, x E (k(x, x) 0.47
(cid:48) )) = EPθ ,Pθ ((cid:104)x, x (cid:48) ) = EPθ ,Pθ ((cid:104)x, x 0.43
(cid:48) E (k(x, y)) = (cid:48) E(k(x, y)) = 0.41
And the third term equals to そして第三の項は等しい 0.75
E (k(y, y e(k(y, y) である。 0.58
(cid:48) (cid:88) (cid:48) (cid:88) 0.39
x (cid:105)) = EPθ ,Pθ (δx,x(cid:48)) = (cid:88) (cid:88) x (cid:105)) = EPθ ,Pθ (δx,x(cid:48)) = (cid:88) (cid:88) 0.41
Pθ(x) Q(x). pθ(x) q(x) である。 0.82
x Q2(y). x q2(y) である。 0.55
)) = y P2 θ(x). )) = うん P2 θ(x)。 0.59
(C1) (C2) (C3) (C1) (C2) (C3) 0.47
(cid:88) x (cid:88) x 0.41
The above three terms can be effectively and analytically evaluated by quantum Swap test when the input state of 2N /2N . 上記の3つの項は、2N /2N の入力状態において量子スワップテストにより効果的に解析的に評価することができる。 0.63
Denote the output state of QCBM as ρ = U (θ)ρ0U (θ)†. QCBM の出力状態は ρ = U (θ)ρ0U (θ) と記述する。 0.83
QCBM in Eq (1) is a full rank mixed state, e g , ρ0 = I This state is also diagonalized and its diagonalized entry records Pθ, i.e., Eq (1) における QCBM は、フルランク混合状態 eg , ρ0 = I この状態も対角化され、その対角化エントリレコード Pθ, すなわち、 0.83
ρ = Pθ(x)|x(cid:105)(cid:104)x | . ρ = Pθ(x)|x(cid:105)(cid:104)x | 。 0.58
(C4) x loss yields According to [104, 105], given two mixed states 1 and 2, the output of Swap test is 1/2 + Tr(12)/2 with an additive error  in O(1/2) runtime. (C4) x 損失 104, 105] では、2つの混合状態が与えられたとき、スワップテストの出力は 1/2 + tr(1/2/2) であり、o(1/2 実行時) で加法誤差 ~ である。 0.51
As such, when 1 = 2 = ρ, the first term E (k(x, x(cid:48))) can be calculated by Swap test, P2 θ(x). したがって、swap test (P2 θ(x)) により、最初の項 E (k(x, x(cid:48))) を計算できる。
訳抜け防止モード: したがって、 ρ1 = ρ2 = ρ のとき、最初の用語 E (k(x)) が成り立つ。 x(cid:48 ) ) は Swap test, P2 θ(x ) で計算できる。
0.75
Likewise, through setting 1 = ρ, and 2 = σ (1 = 2 = σ), the second (third) term can be efficiently evaluated by Swap test with an additive error . 同様に、σ1 = ρ、σ2 = σ とすると、第2項(第3項)は加法誤差 σ でスワップテストによって効率的に評価できる。 0.66
In other words, by leveraging Swap test, we can estimate MMD loss with an additive error  in O(1/2) runtime cost. 言い換えれば、Swapテストを活用することで、O(1/a2)実行コストの加算誤差でMDD損失を推定できる。 0.66
because Tr(ρρ) =(cid:80) where P(a) stands for the probability of sampling a and(cid:80) Pure states. なぜなら Tr(ρρ) = (cid:80) ここで P(a) は a と (cid:80) の純粋状態のサンプリングの確率を表す。 0.81
In this setting, the quantum kernel corresponds to a nonlinear kernel, i.e., k(a, a(cid:48)) = (cid:104) MMD(Pθ || Q) (cid:42) (cid:43) (cid:42) (cid:88) (cid:88) (cid:88) )) − 2 E(k(x, この設定では、量子核は非線形核、すなわち k(a, a(cid:48)) = (cid:104) MMD(Pθ || Q) (cid:42) (cid:43) (cid:42) (cid:88) (cid:88) (cid:88) )) − 2 E(k(x, ))
訳抜け防止モード: この設定では、量子核は非線形核に対応する。 k(a, a(cid:48 ) ) = (cid:104 ) MMD(Pθ ||) Q) ( cid:42 ) ( cid:43 ) ( cid:42 ) ( cid:88 ) ( cid:88 ) ( cid:88 ) ) − 2 E(k(x, ))
0.76
y)) + E(k(y, y =E(k(x, x x(cid:112)Pθ y) + E(k(y, y = E(k(x, x x(cid:112)Pθ 0.46
(x) x(cid:48)(cid:112)Pθ(x(cid:48)) Pθ Pθ (cid:88) (cid:88) (cid:88) (cid:112)Pθ (x) x(cid:48)(cid:112)Pθ(x(cid:48)) Pθ Pθ (cid:88) (cid:88) (cid:112)Pθ 0.42
(x) Q (x) Q (y) − 2 (cid:112)Pθ (x)Q (x)Q (y) − 2 (cid:112)Pθ 0.41
(x) Q (x). √P(a(cid:48))(cid:105 ), P(a) = 1. (x)Q (x)。 p(a(cid:48))(cid:105 ), p(a) = 1 である。 0.49
With this regard, the explicit form of MMD これに関して、MDDの明示的な形式 0.66
(cid:43) y(cid:48)(cid:112)Q( y(cid:48)) (cid:43) y(cid:48)(cid:112)Q( y(cid:48)) 0.41
, The above results indicate that the evaluation of MMD loss amounts to calculating (cid:80) , 以上の結果から,MDD損失の評価は算定に相当している(cid:80)。 0.55
(cid:112)Pθ(x) Q(x). (cid:112)Pθ(x) Q(x)。 0.90
Denote Pθ(x)|x(cid:105), where ρ0 = (|0(cid:105)(cid:104)0 |)⊗n. Pθ(x)|x(cid:105) ここで ρ0 = (|0(cid:105)(cid:104)0 |)。 0.83
When the target the generated state of QCBM as |Φ(θ)(cid:105) = U (θ)|0(cid:105) ターゲットの時 QCBMの生成された状態は、|(θ)(cid:105) = U (θ)|0(cid:105) 0.78
⊗n = eiφ(cid:80) シュン=eiφ(シッド:80) 0.58
x(cid:112)Pθ(x) x(cid:112)Pθ(x) 0.44
y(cid:112)Q(y) y(cid:112)Q(y) 0.48
y(cid:112)Q(y) y(cid:112)Q(y) 0.48
x(cid:48) Pθ(x) + x(cid:48) Pθ(x) + 0.45
(cid:88) (cid:88) (cid:88) (cid:88) 0.39
(cid:88) (cid:88) (cid:88) (cid:88) 0.39
=2 − 2 a√P(a) =2 − 2 a)P(a) 0.38
, Pθ Q (cid:43) , Pθ Q (cid:43) 0.42
= = (cid:42) = = (第42話) 0.45
y y(cid:48) うん y(cid:48) 0.43
(cid:48) )) (cid:48) )) 0.41
− 2 Q Q y − 2 Q Q うん 0.43
x , + (C5) x , + (C5) 0.44
x x (cid:48) x x (cid:48) 0.41
x a(cid:48) x a(cid:48) 0.42
, x y x a , x うん x あ 0.45
x x 0.43
英語(論文から抽出)日本語訳スコア
distribution Q refers to a pure quantum state |Ψ(cid:105) =(cid:80) 分布 Q は純粋量子状態 | (cid:105) = (cid:80) を指す 0.88
Swap test [104], i.e., スワップテスト[104]、すなわち、 0.57
(cid:112)Q(y)|y(cid:105), the term(cid:80)  2N(cid:88) (cid:112)q(y)|y(cid:105), the term(cid:80) ] 2n(cid:88) 0.41
2 (cid:112)Pθ 2 (cid:112)Pθ 0.34
(x) Q (y)(cid:104)x|y(cid:105) (x)Q (y)(cid:104)x|y(cid:105) 0.39
= y x i=1 = うん x i=1 である。 0.40
 2N(cid:88) 2N (cid:88) 0.41
2N(cid:88) 2N (cid:88) 0.36
i=1 j=1 i=1 である。 j=1 0.30
|(cid:104)Φ(θ)|Ψ(cid:105)|2 = |(cid:104)φ(θ)|ψ(cid:105)|2 = 0.41
2 (cid:112)Pθ(x) Q(x) can be evaluated by 2 (cid:112)Pθ(x) Q(x) を評価できる 0.63
14 Pθ(x) Q(x) 14 Pθ(x) Q(x) 0.45
. (C6) According to [104], taking account of the sample error, this term can be estimated within an additive error  in O(1/2) runtime complexity. . (C6) 104] によれば、サンプル誤差を考慮に入れれば、この項はO(1/a2) ランタイムの複雑さの加法誤差で推定できる。 0.56
The proof of Theorem 1 adopts the following lemma. 定理 1 の証明は次の補題を採用する。 0.74
SM D: Proof of Theorem 1 (generalization of QCBMs) SM D:理論1の証明(QCBMの一般化) 0.81
Lemma 2 (Adapted from Theorem 1,[87]). Lemma 2 (Theorem 1,[87]から適応)。 0.67
Suppose that the kernel k(·,·) is bounded. 核 k(·,·) が有界であると仮定する。 0.48
Following the notations in Theorem 1, when the number of examples sampled from P ˆθ 定理 1 の記法に従えば、例の数が P からサンプリングされるとき 0.67
(cid:114) (n,m) and Q is n and m, with probability 1 − δ, (cid:114) (n,m) と Q は n と m であり、確率 1 − δ である。 0.86
(cid:114) (cid:32) (系統:114) (cid:32) 0.53
(cid:33) MMD(P ˆθ (cid:33) MMD (複数形 MMDs) 0.54
(n,m) || Q) ≤ inf θ∈Θ (n,m) || q) ≤ inf θθθθ 0.42
MMD(Pθ || Q) + 2 MMD(Pθ || Q) + 2 0.96
2 n + 2 m sup x∈X 2n + 2m sup xhtmlx 0.37
k(x, x) 2 + k(x, x) 2 + 0.43
2 δ . (D1) 2 δ . (D1) 0.44
(cid:114) Proof of Theorem 1. (系統:114) 定理 1 の証明。 0.66
To prove Theorem 1, we first derive the upper bound of the generalization error RC under the generic setting. Theorem 1を証明するために、まず一般化誤差RCの上界を一般設定で導出する。 0.69
Then, we analyze RQ under the specific setting where the quantum kernel is employed and the target distribution Q can be directly accessed by quantum machines. 次に、量子カーネルが採用され、ターゲット分布qが量子マシンによって直接アクセス可能な特定の設定下でrqを分析する。 0.76
The calculation of RC. Recall the definition of ˆθ rcの計算です s θ の定義をリコールする 0.61
in Eq (5). eq (5) において。 0.77
Let us first rewrite the generalization error as まず一般化誤差を次のように書き直す。 0.65
(n,m) (cid:18) (n,m) (cid:18) 0.41
RC =MMD2(P ˆθ MMD(P RC =MMD2(P >θ MMD(P) 0.39
= (n,m) || Q) − inf θ∈Θ (n,m) || Q) − inf θ∈Θ (n,m) || Q) − inf θ∈Θ = (n,m) || Q) − inf θ発言 (n,m) || Q) − inf θ発言 (n,m) || Q) − inf θ発言 0.41
(cid:19)(cid:18) MMD2(Pθ || Q) (cid:12)(cid:12)(cid :12)(cid:12) , MMD(Pθ || Q) (cid:19)(cid:18) MMD2(Pθ || Q) (cid:12)(cid:12)(cid :12)(cid:12) , MMD(Pθ || Q) 0.38
MMD(Pθ || Q) MMD(Pθ || Q) 0.92
ˆθ ˆθ (cid:12)(cid:12)(cid :12)(cid:12)MMD(P ˆθ ˆθ (cid:12)(cid:12)(cid :12)(cid:12)MMD(P) 0.38
≤2C1 MMD(P ˆθ ≤2C1 MMD (複数形 MMDs) 0.46
(n,m) || Q) + inf θ∈Θ (n,m)||q)+infθθθθ 0.82
(cid:19) MMD(Pθ || Q) (第19章)MD(Pθ || Q) 0.62
(D2) where the second equality uses inf θ∈Θ MMD2(Pθ || Q) = (inf θ∈Θ MMD(Pθ || Q))2 and the inequality employs the MMD(P ˆθ In conjunction with the above equation with the results of Lemma 2, we obtain that with probability at least 1 − δ, (D2) 第二の等式が inf θの MMD2(Pθ || Q) = (inf θの MMD(Pθ || Q))2 を使い、不等式は上の方程式とLemma 2の結果と合わせて MMD(P )θ を用いる。
訳抜け防止モード: (D2) 第二の等式は、 inf θ水和 MMD2(Pθ || Q ) = (inf θ水和 MMD(Pθ || Q))2 を用いる。 そして、不等式は、上の方程式とLemma 2の結果と合わせてMDD(P >θ)を用いる。 少なくとも 1 − δ の確率で得られる。
0.61
(n,m) || Q) ≤ 2C1. (n,m) || Q) ≤ 2C1。 0.90
(n,m) || Q) + inf θ∈Θ MMD(Pθ || Q) ≤ 2 MMD(P (cid:32) (cid:33)(cid:114) (n,m) || Q) + inf θ(Pθ || Q) ≤ 2 MMD(P (cid:32) (cid:33)(cid:114) 0.46
the upper bound of the generalization error of QGCM yields QGCMの収率の一般化誤差の上限 0.66
(cid:114) (cid:114) (系統:114) (系統:114) 0.66
(cid:32) (cid:33) (cid:32) (cid:33) 0.39
ˆθ k(x, x) ˆθ k(x, x) 0.41
2 + log . (D3) 2 + ログ . (D3) 0.51
RC ≤ 4C1 2 n RC ≤ 4C1 2n 0.37
+ 2 m sup x∈X + 2m sup xhtmlx 0.38
2 δ The calculation of RQ. 2 δ rq の計算。 0.48
Recall the definition of ˆθ in Eq (4). eq (4) における θ の定義を思い出す。 0.83
When QCBM adopts the quantum kernel and the target distribution Q can be directly accessed by quantum machines, the minimum argument of the loss function yields ˆθ = arg minθ∈Θ MMD2(Pθ || Q). QCBM が量子カーネルを導入し、ターゲット分布 Q が量子マシンによって直接アクセス可能となるとき、損失関数の最小引数は >θ = arg minθ ) MMD2(Pθ || Q) となる。 0.82
Following the definition of the generalization error, we obtain 一般化誤差の定義に従えば 0.56
RQ =MMD2(Pˆθ || Q) − inf θ∈Θ RQ =MMD2(P θ || Q) − inf θ発言 0.37
MMD2(Pθ || Q) (n,m) || Q) − inf θ∈Θ MMD2(Pθ || Q) (n,m) || Q) − inf θ発言 0.44
MMD2(Pθ || Q) MMD2(Pθ || Q) 0.82
≤ MMD2(P = RC, ≤MDD2(P = RC, 0.41
ˆθ where the inequality is supported by the definition of ˆθ, MMD2(P ˆθ ˆθ 不等式が θ の定義で支持されている場合、mmd2(p )θ 0.53
(n,m) || Q). (n,m) || Q)。 0.86
Combining the results of RC and RQ in Eqs. EqsにおけるRCとRQの結果を組み合わせる。 0.87
(D3) and (D4), we obtain that with probability at least 1 − δ, (D3) と (D4) は、少なくとも 1 − δ の確率で得られる。 0.86
(cid:32) (cid:114) (cid:32) (系統:114) 0.53
(cid:33)(cid:114) (cid:33)(cid:114) 0.37
RQ ≤ RC ≤ 4C1 RQ ≤ RC ≤ 4C1 0.44
2 n + 2 m sup x∈X 2n + 2m sup xhtmlx 0.37
(cid:32) (cid:114) (cid:32) (系統:114) 0.53
(cid:33) 2 δ (cid:33) 2 δ 0.41
k(x, x) 2 + k(x, x) 2 + 0.43
log . (D5) i.e, MMD2(Pˆθ || Q) = minθ∈Θ MMD2(Pθ || Q) ≤ ログ . (D5) 即ち、MDD2(P θ || Q) = minθ ) MMD2(Pθ || Q) ≤ 0.60
(D4) (D4) 0.47
英語(論文から抽出)日本語訳スコア
SM E: The comparison between QCBMs and GLMs for estimating discrete distributions SM E:離散分布推定のためのQCBMとGLMの比較 0.84
15 GLMs. In this section, we emphasize a central question in QGLMs, i.e., when both variational quantum circuits and neural 15 GLM。 この節では、QGLM、すなわち変動量子回路とニューラルの両方において中心的な問題を強調する。 0.52
networks are used to implement Pθ, which one can attain a lower inf θ∈Θ MMD2(Pθ || Q). ネットワークは pθ を実装し、より低い inf θθ mmd2(pθ || q) が得られる。 0.72
The importance of this issue comes from Eq (7), where the generalization error bound becomes meaningful when inf θ∈Θ MMD2(Pθ || Q) is small. この問題の重要性は eq (7) から来ており、inf θθθ mmd2(pθ || q) が小さいとき、一般化誤差境界が意味を持つ。 0.72
In this respect, it is necessary to understand whether QCBMs allow a lower inf θ∈Θ MMD2(Pθ || Q) over (classical) In what follows, we analyze when QCBMs promise a lower inf θ∈Θ MMD2(Pθ || Q) over a typical GLM—restricted with an exponential number of trainable parameters [106, 107] with inf θ∈Θ MMD2(Pθ || Q) → 0, we focus on the この点に関して、qcbmsが(古典的)より低い inf θθ mmd2(pθ || q) を許容するかどうかを理解する必要がある。 qcbmsが典型的な glm 上で低い inf θθθ mmd2(pθ || q) を約束するときに、qcbms は、inf θθθ mmd2(pθ || q) → 0 を持つ指数関数的な訓練可能なパラメータ [106, 107] で制限される。 0.67
Boltzmann machine (RBM) [83]. Boltzmann Machine (RBM) [83]。 0.34
To be more specific, consider that both QCBMs and RBMs are universal approximators より具体的には、QCBMとRBMの両方が普遍近似器であることを考える。 0.68
more practical scenario in which the number of parameters polynomially scales with the feature dimension, the qubit count, and the number of visible neurons. パラメータの数が、特徴次元、量子ビット数、可視ニューロンの数とともに多項式的にスケールするより実践的なシナリオ。 0.73
Denote the space of the parameterized distributions formed by QCBMs (or RBM) as PQCBM inf θ∈Θ MMD2(PRBM QCBM(またはRBM)によって形成されるパラメータ化された分布の空間を、PQCBM inf θ・→ MMD2(PRBM)として記述する。 0.60
Θ ). The superiority of QCBMs can be identified by showing inf θ∈Θ MMD2(PQCBM || Q). Θ ). QCBMs の優越性は、inf θ ) MMD2 (PQCBM || Q) を示すことによって識別できる。 0.55
This amounts to finding a distribution Q satisfying これは、満足する分布 Q を見つけることに相当する。 0.60
|| Q) ≤ (or PRBM || Q) ≤ (PRBM) 0.43
Θ θ θ (cid:16)Q ∈ PQCBM Θ θ θ (cid:16)Q ∈ PQCBM 0.43
Θ (cid:17) Θ (cid:17) 0.41
(cid:16)Q /∈ PRBM (出典:16)Q/のPRBM 0.60
Θ (cid:17) Θ (cid:17) 0.41
∧ . (E1) According to the results in [108], there is a large class of quantum states meeting the above requirement. ∧ . (E1) 108]の結果によると、上記の要件を満たす量子状態の大規模なクラスが存在する。 0.52
Representative examples include projected entangled pair states and ground states of k-local Hamiltonians. 代表的な例として、射影絡み合ったペア状態とk-局所ハミルトン状態がある。 0.52
The proof of Theorem 2 utilizes the following three lemmas. 定理 2 の証明は以下の3つの補題を用いる。 0.71
For clearness, we defer the proof of Lemmas 4 and 5 to 明確性については、Lemmas 4 と 5 の証明を延期する。 0.63
SM F 1 and F 2, respectively. sm f 1 と f 2 はそれぞれである。 0.70
SM F: Proof of Theorem 2 (generalization of QGANs) SM F: Theorem 2(QGANの一般化)の証明 0.84
Lemma 3 (McDiarmids inequality, [109]). Lemma 3 (McDiarmids inequality, [109])。 0.32
Let f : X1 × X2 × ... × XN → R and assume there exists c1, ..., c2 ≥ 0 such that, for all k ∈ {1, ..., N}, we have sup f : X1 × X2 × ... × XN → R とし、すべての k ∈ {1, ..., N} に対して sup となるような c1, ..., c2 ≥ 0 が存在すると仮定する。 0.89
x1,...,xk, ˜xk,...xN |f (x1, ..., xk, ..., xN ) − f (x1, ..., ˜xk, ..., xN )| ≤ ck. x1, ..., xk, , xk, ...xN |f (x1, ..., xk, ..., xN ) − f (x1, ..., , xxk, ..., xN )| ≤ ck である。 0.93
(F1) Then for all  ≥ 0 and independent random variables ξ1, ...ξN in X , (F1) すると、すべての ≥ ≥ 0 と独立確率変数 −1, ...,n に対して x , 0.61
Pr(|f (ξ1, ...ξN ) − E(f (ξ1, ...ξN ))| ≥ ) ≤ exp pr(|f (1, ...,n ) − e(f (1, ...,n ))| ≥ ) ≤ exp である。 0.81
(cid:32) (cid:33) (cid:32) (cid:33) 0.39
. −22(cid:80)N . -2(cid:80)n である。 0.43
n=1 c2 n (F2) n=1 c2 n (F2) 0.40
Lemma 4. Following the notations in Theorem 2, define G = {k(Gθ(·), Gθ(·))|θ ∈ Θ} and G+ = {k(Gθ(z), Gθ(·))|θ ∈ Θ, z ∈ Z}. 第4回。 定理 2 の記法に従えば、G = {k(Gθ(·), Gθ(·))|θ ∈ .} と G+ = {k(Gθ(z), Gθ(·))|θ ∈ ., z ∈ Z} が定義される。 0.70
Given the set S = {z(i)}n 集合 S = {z(i)}n が与えられたとき 0.81
i=1, we have Lemma 5. i=1です。 第5回。 0.66
Following the notations in Theorem 2, define W = {k(Gθ(·),·)|θ ∈ Θ} and W+ = {k(Gθ(·), y)|θ ∈ Θ, y ∈ Y}. 定理2の表記に従えば、W = {k(Gθ(·),·)|θ ∈ s} と W+ = {k(Gθ(·), y)|θ ∈ s, y ∈ Y} が定義される。 0.78
Given the set S = {z(i)}n 集合 S = {z(i)}n が与えられたとき 0.81
j=1, we have ≤ (cid:48) j=1です ≤ (cid:48) 0.51
8 + n − 1 8 + n − 1 である。 0.48
n − 1 n − 1 である。 0.60
θ∈Θ| Ez,z(cid:48)(k(Gθ θθθ| ez,z(cid:48)(k(gθ) 0.37
(z), Gθ(z E(sup 24(cid:112)d2k(Nge + Ngt) sup (cid:12)(cid:12)(cid :12) Ez,y(k(Gθ (z), gθ(z e(sup 24(cid:112)d2k(nge + ngt) は (cid:12)(cid:12)(cid :12) ez,y(k(gθ) である。 0.77
(z), y)) − 24(cid:112)d2k(Nge + Ngt) (z) y)) − 24(cid:112)d2k(Nge + Ngt) 0.37
i=1 and the set {y(j)}m i=1 と集合 {y(j)}m 0.85
θ∈Θ E 1 i(cid:54)=i(cid:48) θ∈Θ へえ 1 i(cid:54)=i(cid:48) 0.40
))) − n(n − 1) ))) − n(n − 1) である。 0.59
(cid:48) k(Gθ(z(i)), Gθ(z(i (cid:48) k(Gθ(z(i)), Gθ(z(i)) 0.48
(cid:88) 3 (n − 1)NgeNgt)(cid:1) . (cid:88) 3 (n − 1)NgeNgt)(cid:1)。 0.86
(cid:0)1 + N ln(1764C 2  (cid:12)(cid:12)(cid :12) (cid:0)1 + N ln(1764C 2 ) (cid:12)(cid:12)(cid :12) 0.41
k(Gθ(z (i)), y k(Gθ(z) (i)、y 0.35
(j)) (cid:88) (cid:0)1 + N ln(1764C 2 (j) (cid:88) (cid:0)1 + N ln(1764C 2) 0.36
3 nNgeNgt)(cid:1) . 3nNgeNgt (cid:1) であった。 0.57
i∈[n],j∈[m] ihtml[n], jhtml[m] 0.15
1 mn 8 n ≤ + 1mn 8n ≤ + 0.40
n )))|) (F3) n )))|) (F3) 0.44
(F4) We are now ready to prove Theorem 2. (F4) 定理 2 を証明する準備が整った。 0.54
英語(論文から抽出)日本語訳スコア
Proof of Theorem 2. Let E(θ) = MMD2 equals to 定理2の証明。 E(θ) = MMD2 を等しくする。 0.76
U (Pn θ || Qm) and T (θ) = MMD2(Pθ || Q). ウ(Pn) θ || Qm) および T (θ) = MMD2(Pθ || Q)。 0.86
Note that the generalization error In the remainder of the proof, when no confusion occurs, we abbreviate ˆθ is upper bounded by 一般化誤差について 証明の残りの部分では、混乱が起こらないときは、上界が上界であることを省略する。 0.60
(n,m) as ˆθ for clearness. (n,m) 明度は θ である。 0.53
The above equation RC = T (ˆθ 上記の方程式 RC (複数形 RCs) 0.80
(n,m) ) − T (θ (n,m) ) − T (θ) 0.46
∗ ). (F5) 16 ∗ ). (F5) 16 0.44
RC = E(ˆθ) − E(ˆθ) + T (ˆθ) − T (θ rc = e ( θ ) − e ( θ ) + t ( θ ) − t (θ ) 0.40
(F6) where the first inequality employs the definition of ˆθ with E(θ ) ≥ E(ˆθ) and the second inequality uses the property of absolute value function. (F6) 第一の不等式が E(θ ) ≥ E(\θ) と定義されるとき、第二の不等式は絶対値函数の性質を用いる。 0.77
In the following, we derive the probability for supθ∈Θ |T (θ) − E(θ)| < , which in turn can achieve the upper bound of RC. 以下に示すように、 supθ~ |T (θ) − E(θ)| < > の確率を導出し、この確率は RC の上界を達成できる。 0.75
) ≤ |T (ˆθ) − E(ˆθ)| + |T (θ ) ≤ |t ( θ) − e ( θ)| + |t (θ) である。 0.79
) − E(ˆθ) + T (ˆθ) − T (θ ) − E(=θ) + T(=θ) − T(θ) 0.47
) ≤ E(θ ) − E(θ ) ≤ E(θ) ) − E(θ) 0.49
)|, ∗ ∗ ∗ ∗ )|, ∗ ∗ ∗ ∗ 0.38
∗ ∗ According to the explicit form of the MMD loss, supθ∈Θ |E(θ) − T (θ)| satisfies sup θ∈Θ ∗ ∗ MMD損失の明示的な形式に従えば、supθ(E(θ) − T(θ)| は sup θ(θ) を満たす。 0.54
θ || Qm) − MMD2(Pθ || Q)(cid:12)(cid:12) θ || Qm) − MMD2(Pθ || Q)(cid:12)(cid:12) 0.41
U (Pn (cid:48) ウ(Pn) (cid:48) 0.58
(cid:12)(cid:12)MMD2 (cid:12)(cid:12)(cid :12) Ez,z(cid:48)(k(Gθ (cid:12)(cid:12)MMD2 (cid:12)(cid:12)(cid :12)Ez,z(cid:48)(k(G θ) 0.38
(z), Gθ(z (cid:88) (cid:12)(cid:12)(cid :12) Ey,y(cid:48)(k(y, y (cid:123)(cid:122) (cid:12)(cid:12)(cid :12) Ez,y(k(Gθ (z) Gθ(z)(cid:12)(cid:12)( cid:12)(cid:12) Ey,y(cid:48)(cid:48( y, cid:123)(cid:122) (cid:12)(cid:12)(cid :12) Ez,y(Gθ) 0.41
(z), y)) − i∈[n],j∈[m] (z) y) − ihtml[n], jhtml[m] 0.23
T 1 k(Gθ(z T1 k(Gθ(z) 0.40
(i)), y (j)) − (cid:88) (cid:48) (cid:88) (i)、y (j) − (cid:88) (cid:48) (cid:88) 0.35
m(m − 1) m(m − 1) である。 0.76
)) − j(cid:54)=j(cid:48) )) − j(cid:54)=j(cid:48) 0.40
1 = sup θ∈Θ 1 =supθθθθ 0.38
+ 2 mn + 2 mn である。 0.48
≤sup θ∈Θ ≤sup θθθ である。 0.41
(cid:124) +2 sup θ∈Θ (cid:124) +2 sup θθθθ 0.41
(cid:124) 1 mn (cid:124) 1mn 0.39
(cid:123)(cid:122) (cid:123)(cid:122) 0.37
T 3 ))) − 2 Ez,y(k(Gθ T3 )) − 2 Ez,y(k(Gθ) 0.42
(z), y)) + Ey,y(cid:48)(k(y, y (z) y) + Ey,y(cid:48)(k(y, y) 0.36
1 m(m − 1) 1 m(m − 1) である。 0.59
k(y(j), y(j k(y(j), y(j) 0.42
)) (cid:88) )) (cid:88) 0.41
j(cid:54)=j(cid:48) (cid:48) j(cid:54)=j(cid:48) (cid:48) 0.37
(cid:12)(cid:12)(cid :12) (cid:125) (cid:12)(cid:12)(cid :12)(cid:125) 0.36
k(y(j), y(j k(y(j), y(j) 0.42
+ sup θ∈Θ (cid:124) +supθθθθ (cid:124) 0.36
i∈[n],j∈[m] ihtml[n], jhtml[m] 0.15
k(Gθ(z (i)), y k(Gθ(z) (i)、y 0.35
(j)) (cid:48) (j) (cid:48) 0.36
1 n(n − 1) 1 n(n − 1) である。 0.59
(cid:48) )) (cid:48) )) 0.41
)) − (cid:12)(cid:12)(cid :12) (cid:12)(cid:12)(cid :12) Ez,z(cid:48)(k(Gθ(z), Gθ(z (cid:12)(cid:12)(cid :12) (cid:125) )) − (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12) Ez,z(cid:48)(Gθ(z), Gθ(z)(cid:12)(cid:12)( cid:125) 0.43
where the inequality comes from the Jensen inequality. 不平等はジェンセンの不平等に由来する。 0.61
We next separately derive the upper bounds of the terms T 1, T 2, and T 3 in Eq (F7). 次に、Eq (F7) における T 1 T 2 および T 3 の上限を別々に導出する。 0.75
(cid:88) i(cid:54)=i(cid:48) (cid:88) i(cid:54)=i(cid:48) 0.39
k(Gθ(z(i)), Gθ(z(i k(Gθ(z(i)), Gθ(z(i)) 0.47
(cid:48) ))) (cid:48) ))) 0.41
(cid:48) ))) − (cid:48) ))) − 0.41
1 (cid:123)(cid:122) 1 (cid:123)(cid:122) 0.40
T 2 n(n − 1) T2 n(n − 1) である。 0.58
(cid:88) i(cid:54)=i(cid:48) (cid:88) i(cid:54)=i(cid:48) 0.39
k(Gθ(z(i)), Gθ(z(i k(Gθ(z(i)), Gθ(z(i)) 0.47
(cid:48) (cid:12)(cid:12)(cid :12) (cid:125) (cid:48) (cid:12)(cid:12)(cid :12)(cid:125) 0.38
))) (F7) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12) ))) (F7) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) 0.44
(F8) (F9) Upper bound of T 1. (F8) (F9) T1の上界。 0.49
The upper bound of T 1 only depends on the examples sampled from the target distribution t 1 の上限は、対象分布からサンプリングされた例のみに依存する 0.73
Q, which is independent of θ ∈ Θ. q は θ ∈ θ とは独立である。 0.75
With this regard, T1 can be taken out of the supremum and we apply the concentration inequality in Lemma 3 to derive the upper bound of | Ey,y(cid:48)(k(y, y(cid:48))) − ))|. この点に関して、t1 は上限から取り出すことができ、補題 3 の濃度不等式を適用して | ey,y(cid:48)(k(y, y(cid:48))) − )| の上界を導出する。 0.70
Recall the precondition of employing Lemma 3 is finding the upper bound on f (·). Lemma 3 を用いる前提条件は f (·) 上の上界を見つけることである。 0.74
Let the function f (·) be m(m−1) 函数 f (·) を m(m−1) とする。 0.87
)). For each (cid:96) ∈ {1, ..., m}, the desired upper bound yields )). 各 (cid:96) ∈ {1, ..., m} に対して、所望の上界収率 0.61
j(cid:54)=j(cid:48) k(y(j), y(j j(cid:54)=j(cid:48) k(y(j), y(j) 0.46
j(cid:54)=j(cid:48) k(y(j), y(j j(cid:54)=j(cid:48) k(y(j), y(j) 0.46
(cid:80) m(m−1) (cid:80) m(m−1) 0.41
1 1 (cid:48) 1 1 (cid:48) 0.41
(cid:48) 1 (cid:48) 1 0.41
m(m − 1) m(m − 1) である。 0.76
( j(cid:54)=j(cid:48),j(cid:54)=(cid:96) (j(cid:54)=j(cid:48),j(cid:54)=(cid:96) 0.41
k(y(j), y(j k(y(j), y(j) 0.42
(cid:48) )) + (cid:48) )) + 0.41
k(y((cid:96)), y(j k(y((cid:96)), y(j) 0.45
(cid:48) ))) + (cid:48) ))) + 0.41
1 m(m − 1) 1 m(m − 1) である。 0.59
( j(cid:54)=j(cid:48),j(cid:54)=(cid:96) ( j(cid:54)=j(cid:48),j(cid:54)=(cid:96) 0.42
k(y(j), y(j k(y(j), y(j) 0.42
(cid:48) )) + (cid:48) )) + 0.41
k( ˜y((cid:96)), y(j k( sy((cid:96)), y(j) 0.43
(cid:48) ))) (cid:48) ))) 0.41
(cid:88) (cid:80) (cid:88) (cid:80) 0.39
(cid:88) j(cid:48)(cid:54)=(cid:96) (cid:88) j(cid:48)(cid:54)=(cid:96) 0.39
(cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)− (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) −(cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12) 0.39
1 = ≤ m(m − 1) 2C2 m 1 = ≤ m(m − 1) 2c2 m 0.56
, (cid:88) (cid:16) , (出典:88)(出典:16) 0.50
(cid:88) j(cid:48)(cid:54)=(cid:96) (cid:88) j(cid:48)(cid:54)=(cid:96) 0.39
(cid:88) j(cid:48)(cid:54)=(cid:96) (cid:88) j(cid:48)(cid:54)=(cid:96) 0.39
(cid:17)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12) (cid:17)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12) 0.42
k(y((cid:96)), y(j k(y((cid:96)), y(j) 0.45
(cid:48) ))) − k( ˜y((cid:96)), y(j (cid:48) )) − k( sy((cid:96)), y(j) 0.39
(cid:48) ))) (cid:48) ))) 0.41
where the inequality leverages the assumption that the kernel k(·,·) is upper bounded by C2. ここで、不等式は、核 k(·,·) が c2 で上界であるという仮定を利用する。 0.65
Given this upper bound, we obtain この上限を考えると、我々は得られる 0.64
Pr(T 1 ≥ ) Pr(T 1 ≥ ) 0.35
(cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)Ey,y(cid:48) (k(y, y (cid:19) (cid:18) cid:12)(cid:12)(cid: 12)(cid:12)(cid:12)( cid:12)ey,y(cid:48)( k(y,y)(cid:19) (cid:18) 0.39
=Pr ≤exp − 2 8C 2 2 Pr ≤exp − ~2 8C 2 0.50
m = δT 1, (cid:48) M δT 1。 (cid:48) 0.49
)) − 1 m(m − 1) )) − 1 m(m − 1) である。 0.54
(cid:88) j(cid:54)=j(cid:48) (cid:88) j(cid:54)=j(cid:48) 0.39
k(y(j), y(j k(y(j), y(j) 0.42
(cid:48) )) (cid:48) )) 0.41
 (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12) ≥   (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12) ≥ ) 0.40
英語(論文から抽出)日本語訳スコア
where the inequality exploits the results in Lemma 3. 不等式はLemma 3の結果を悪用する。 0.57
Upper bound of T 2. We next use the concentration inequality to quantify the upper bound of T 2. t 2 の上限。 次に、濃度不等式を用いてT2の上界を定量化する。 0.62
The derivation is similar to that of T 1. この導出は T 1 の導出と似ている。 0.82
In particular, supported by the results of Lemma 3, we have 特に、Lemma 3の結果に支えられている。 0.52
Suppose that E(T 2) ≤ 1, an immediate observation is that Pr(T 2 ≥ 1 + ) ≤ exp E(T2) ≤ {\displaystyle E(T2) ≤ {\displaystyle E(T)} が exp であるとする。 0.68
Pr(|T 2 − E(T 2)| ≥ ) ≤ exp (cid:18) Pr(|T 2 − E(T 2)| ≥ ) ≤ exp (cid:18) 0.46
In other words, the derivation of the upper bound of T2 amounts to analyzing the upper bound 1. 言い換えれば、T2 の上界の導出は、上界 >1 を解析する。 0.50
Upper bound of T 3. Following the same routine with the derivation of the upper bound of T2, we obtain T3の上限。 T2の上界の導出と同じルーチンに従って、我々は得られる。 0.64
17 (F10) (F11) 17 (F10) (F11) 0.46
(F12) (F13) (F12) (F13) 0.47
(F14) (cid:18) (F14) (cid:18) 0.43
2 8C 2 2 − (cid:19) ~2 8C 2 − (cid:19) 0.56
2 8C 2 2 − n ~2 8C 2 − n 0.57
= δT 2. n δt 2 である。 n 0.57
= δT 2. (cid:19) δt 2 である。 (cid:19) 0.56
(cid:19) (cid:19) (cid:19) (cid:19) 0.39
(cid:18) 2 8C 2 2 (cid:18) ~2 8C 2 0.63
− nm n + m − nm n + m である。 0.48
= δT 3. = δt 3 である。 0.67
2 8C 2 2 nm ~2 8C 2 nm 0.64
n + m n + m である。 0.60
= δT 3. = δt 3 である。 0.67
Suppose that E(T 3) ≤ 2. E(T 3) ≤ >2 とする。 0.76
The above result hints that 以上の結果が示唆する。 0.67
Pr(|T 3 − E(T 3)| ≥ ) ≤ exp (cid:18) Pr(|T 3 − E(T 3)| ≥ ) ≤ exp (cid:18) 0.46
Summing up Eqs. (F9), (F11), and (F13), the union bound gives eqをまとめる。 (F9)、(F11)、(F13)、連合境界が与える 0.69
− Pr(T 3 ≥ 2 + ) ≤ exp − Pr(T 3 ≥ t2 + t) ≤ exp 0.43
θ∈Θ|E(θ) − T (θ)| ≥ 1 + 22 + 4 sup θθθθ|e(θ) − t(θ)| ≥ ~1 + 2/2 + 4/sup 0.39
(cid:18) (cid:18) (cid:16) θ∈Θ|E(θ) − T (θ)| ≥ 1 + 22 + 4 sup |E(ˆθ) − T (ˆθ)| ≥ 1 + 22 + 4 (cid:18) (cid:18) (cid:16) θθθθ|e(θ) − t (θ)| ≥ , 1 + 2, 2 + 4 sup |e( θ) − t ( θ)| ≥ , 1 + 2, 2 + 4 である。 0.76
(cid:17) (cid:19) (cid:19) (cid:17) (cid:19)(cid:19) 0.38
≤ 3δT 3. 3δt 3 である。 0.61
Pr ⇒Pr ⇒Pr Pr 略称は「pr」。 0.33
≤ δT 1 + δT 2 + δT 3 ≤δT 1 + δT 2 + δT 3 0.45
≤ 3δT 3 ≤ 3δt 3 である。 0.46
This yields that with probability at least 1 − 3δT 3, ∗ 2(1 + 22 + 4) ≥ |E(ˆθ) − T (ˆθ)| + |E(θ )| = RC. これにより、少なくとも 1 − 3δt 3 の確率で ∗ 2 (1 + 2, 2 + 4 ) ≥ |e( θ) − t ( θ)| + |e(θ )| = rc となる。 0.89
(F15) ) − T (θ According to the explicit forms of 1 and 2 achieved in Lemmas 4 and 5, with probability 1 − 3δT 3, the generalization error of QGANs is upper bounded by (F15) ) − T (θ) Lemmas 4 と 5 の明示的な形式に従えば、確率 1 − 3δT 3 に対して QGAN の一般化誤差は上界である。 0.75
)| ≥ |E(ˆθ) − T (ˆθ) − E(θ )| ≥ |E(シュθ) − T(シュθ) − E(θ) 0.90
)| ≥ |T (ˆθ) − T (θ )| ≥ |t ( θ) − t (θ) 0.93
) + T (θ ∗ ) + T (θ) ∗ 0.46
∗ ∗ ∗ (cid:32) ∗ ∗ ∗ (cid:32) 0.42
≤8 + 2 RC ≤8 + 2 RC 0.41
(cid:32) (cid:115) (cid:32)(cid:115) 0.37
+4 ≤8 24(cid:112)d2k(Nge + Ngt) +4 ≤8 24(cid:112)d2k(Nge + Ngt) 0.41
8 n − 1 8 n − 1 である。 0.51
+ 24(cid:112)d2k(Nge + Ngt) (cid:0)1 + N ln(1764C 2 (cid:32) + 24(cid:112)d2k(Nge + Ngt) (cid:0)1 + N ln(1764C 2 (cid:32) 0.43
n − 1 n − 1 である。 0.60
n 8 n + 8C 2 n 8n + 8C 2 0.41
2 (n + m) nm 2(n + m) nm 0.42
ln( ln (複数形 lns) 0.39
1 3δT 3 ) + 6 1 3δT 3 ) + 6 0.40
8 n − 1 8 n − 1 である。 0.51
(cid:0)1 + N ln(1764C 2 3 nNgeNgt)(cid:1)(cid: 33) 24(cid:112)d2k(Ngt + Nge) (cid:0)1 + N ln(1764C 2 3 nNgeNgt)(cid:33)24(c id:112)d2k(Ngt + Nge) 0.48
3 (n − 1)NgeNgt)(cid:1)(cid :33) (cid:0)1 + N ln(1764C 2 (cid:112) 3 (n − 1)NgeNgt)(cid:1) (cid:33) (cid:0)1 + N ln(1764C 2 (cid:112) 0.44
n − 1 n − 1 である。 0.60
+ where the last inequality uses the relation between δT 3 and  in Eq (F13) with  = 1/n < 1/(n − 1), and n − 1 < n. + ここで、最後の不等式は δT 3 と Eq (F13) の δT 3 と n − 1 < 1/(n − 1) の関係を使い、n − 1 < n となる。 0.62
3 nNgeNgt)(cid:1)(cid: 33) 3 nNgeNgt (cid:1) (cid:33) 0.44
. (F16) 8C 2 . (F16) 8C 2 0.45
2 (n + m) ln(1/δT 3)/(nm), 2 (n + m) ln(1/δt 3)/(nm) である。 0.85
Recall Lemma 4 aims to derive the upper bound of E(T 2) in Eq (F7). Recall Lemma 4 は Eq (F7) における E(T2) の上界を導出することを目的としている。
訳抜け防止モード: Recall Lemma 4が目指す Eq (F7 ) における E(T 2 ) の上界を導出する。
0.85
In Ref. [81], the authors utilize a statistical measure named Rademacher complexity to quantify these two terms. refで。 81] 著者らは、これらの2つの項を定量化するために、Rademacher complexity という統計測度を利用する。
訳抜け防止モード: refで。 81 ] 著者らはRademacher complexity という統計測度を利用する この2つの用語を定量化します
0.64
Different from the classical counterpart, here we adopt an another statistical measure, i.e., covering number, to derive the upper bound of E(T 2). 古典的な測度とは異なり、ここでは別の統計測度、すなわち被覆数を採用して、E(T2) の上界を導出する。 0.66
This measure allows us to identify how E(T 2) scales with the qubit count N and the architecture of the employed Ansatz such as the trainable parameters Ngt and the types of the quantum gates. この測定により、E(T2) が qubit count N でどのようにスケールするかと、トレーニング可能なパラメータ Ngt や量子ゲートの型など、採用される Ansatz のアーキテクチャを特定できる。 0.77
For self-consistency, we provide the formal definition of covering number and Rademacher as follows. 自己整合性については、被覆数とラデマッハの公式な定義を次のように提供する。 0.42
1. Proof of Lemma 4 1. lemma 4 の証明 0.55
英語(論文から抽出)日本語訳スコア
Definition 2 (Covering number, [110]). 定義 2 (被覆番号 [110])。 0.54
The covering number N (U, ,(cid:107) · (cid:107)) denotes the least cardinality of any subset V ⊂ U that covers U at scale  with a norm (cid:107) · (cid:107), i.e., B∈V (cid:107)A − B(cid:107) ≤ . 被覆数 N (U, s, (cid:107) · (cid:107) は、U を基準 (cid:107) · (cid:107) · (cid:107) かつ B (cid:107)A − B (cid:107) ≤ s で包含する任意の部分集合 V > U の最小濃度を表す。 0.81
min (F17) sup A∈U ミン (F17) sup (複数形 sups) 0.40
18 Definition 3 (Rademacher, [110]). 18 定義3 (Rademacher, [110])。 0.37
Let µ be a probability measure on X , and let F be a class of uniformly bounded functions on X . μ を X 上の確率測度とし、F を X 上の一様有界関数の類とする。 0.72
Then the Rademacher complexity of F is すると f のラデマッハ複雑性は 0.61
Rn(F) = EµEσ1,...,σn rn(f) = eμeσ1,...,σn 0.78
1 √n sup f∈F 1回。 sup fvcf 0.38
(cid:32) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) n(cid:88) (cid:32) (cid:12)(cid:12)(cid :12)(cid:12)n(cid:88 ) 0.41
i=1 (cid:33) i=1 である。 (cid:33) 0.35
(cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12) 0.44
σif (x(i)) σif (複数形 σifs) 0.77
, (F18) where σ = (σ1, ..., σn) is a sequence of independent Rademacher variables taking values in {−1, 1} and each with probability 1/2, and x1, ..., xn ∈ X are independent, µ-distributed random variables. , (F18) ここで σ = (σ1, ..., σn) は {−1, 1} で値を取る独立ラデマッハ変数の列であり、各確率 1/2 と x1, ..., xn ∈ x は独立な μ-分散確率変数である。 0.59
Intuitively, the covering number concerns the minimum number of spherical balls with radius ε that occupies the whole space; the Rademacher complexity measures the ability of functions from F to fit random noise. 直観的には、被覆数は空間全体を占有する半径εの球面球の最小数に関係しており、ラデマッハ複雑性はF からの関数がランダムノイズに収まる能力を測定する。 0.75
The relation between Rademacher complexity and covering number is established by the following Dudley entropy integral bound. ラデマッハ複雑性と被覆数の関係は、次のダドリーエントロピー積分境界によって確立される。 0.51
Lemma 6 (Adapted from [81, 111]). Lemma 6 ([81, 111]から適応)。 0.65
Let F = {f : X × X → R} and F+ = {h = f (x,·) : f ∈ F, x ∈ X} and F+ ⊂ B(L∞(X )). F = {f : X × X → R} と F+ = {h = f (x,·) : f ∈ F, x ∈ X} と F+ > B(L∞(X)) とする。 0.86
Given the set S = {x(1), ..., x(n)} ∈ X , denote the Rademacher complexity of F+ as Rn(F+), it satisfies 集合 S = {x(1), ..., x(n)} ∈ X が与えられたとき、F+ のラデマッハ複雑性は Rn(F+) として表される。 0.80
(cid:18) (cid:90) 1 (cid:18) (cid:90)1 0.39
(cid:113) 12 √n (cid:113) 12年。 0.43
α (cid:19) α (cid:19) 0.41
where (cid:107)Πj(cid:107) denotes the operator norm of Πj. ここで (cid:107)πj(cid:107) は πj の作用素ノルムを表す。 0.51
N (Hcirc, ,(cid:107) · (cid:107)) ≤ N (Hcirc, , (cid:107) · (cid:107)) ≤ 0.49
Rn(F+) ≤ inf rn(f+) ≤ inf 0.44
α>0 4α + ln(N ((F+)|S , ,(cid:107) · (cid:107)2)d α>0 4α + ln(n ((f+)|s , s, (cid:107) · (cid:107)2) d である。 0.54
, (F19) where (F+)|S = {[f (x, x(i))]i=1:n : f ∈ F, x ∈ X} denotes the set of vectors formed by the hypothesis with S. , (F19) ここで (F+)|S = {[f (x, x(i))]i=1:n : f ∈ F, x ∈ X} は、S の仮説によって形成されるベクトルの集合を表す。 0.60
Ref. [81] hinges on the term E(T 2) with the Rademacher complexity, as stated in the following lemma. 参照。 [81] は、以下の補題で述べたように、ラデマッハ複雑性を伴う E(T2) という用語に基づいている。 0.53
Lemma 7 (Adapted from Lemma 1, {k(Gθ(·), Gθ(·))|θ ∈ Θ} and G+ = {k(Gθ(z), Gθ(·))|θ ∈ Θ, z ∈ Z}. Lemma 7 (Lemma 1, {k(Gθ(·), Gθ(·))|θ ∈ .} および G+ = {k(Gθ(z), Gθ(·))|θ ∈ ., z ∈ Z} から順応する。 0.87
Given the set S = {z(i)}n 集合 S = {z(i)}n が与えられたとき 0.81
[81]). Following notations in Theorem 2 and Lemma 6, define G = E(T 2) ≤ [81]). Theorem 2 と Lemma 6 の表記に従うと、G = E(T2) ≤ が定義される。 0.54
√n − 1 where Rn−1(G+) refers to the Rademacher’s complexity of G+. ここで rn−1(g+) は g+ のラデマッハの複雑性を意味する。 0.71
In conjunction with the above two lemmas, the term E(T 2) is upper bounded by the covering number of G+. 上記の2つの補題と合わせて、E(T2) という用語は G+ の被覆数によって上界となる。 0.73
As such, the proof of Lemma 4 utilizes the following three lemmas, which are used to formalize the relation of covering number of two metric spaces, quantify the covering number of variational quantum circuits, and evaluate the covering number of the space living in N -qubit quantum states, respectively. として このように、補題4の証明は、2つの距離空間の被覆数の関係を形式化し、変動量子回路の被覆数を定量化し、それぞれ n-量子ビット量子状態に存在する空間の被覆数を評価する3つの補題を用いる。 0.62
Lemma 8 (Lemma 5, [112]). Lemma 8 (Lemma 5 [112])。 0.27
Let (H1, d1) and (H2, d2) be metric spaces and f : H1 → H2 be bi-Lipschitz such that (F20) h1, d1) と (h2, d2) を距離空間とし、f : h1 → h2 を bi-lipschitz とし (f20)
訳抜け防止モード: H1, d1 ) と ( H2, d2 ) を計量空間とする。 そして f : H1 → H2 は (F20 )
0.86
Rn−1(G+), rn−1(g+) である。 0.54
i=1, we have 2 d2(f i=1です。 2 d2(f) 0.53
(x), f (y)) ≤ Kd1(x, (x),f (y) ≤ Kd1(x, 0.37
y), ∀x, y ∈ H1, x, y ∈ h1, y) である。 0.63
and Then their covering numbers obey そして カバーナンバーが従うと 0.59
d2(f (x), f d2(f) (x),f 0.36
(y)) ≥ kd1(x, (y)) ≥ kd1(x) 0.88
y), ∀x, y ∈ H1 with d1(x, y)、d1(x, y ∈ H1 である。 0.69
y) ≤ r. y) ≤ r である。 0.81
N (H1, 2/k, d1) ≤ N (H2, , d2) ≤ N (H1, /K, d1), N (H1, 2n/k, d1) ≤ N (H2, t, d2) ≤ N (H1, t/K, d1) である。 0.78
where the left inequality requires  ≤ kr/2. 左の不等式は ≤ kr/2 である。 0.73
Lemma 9 (Lemma 2, [70]). Lemma 9 (Lemma 2, [70])。 0.32
Define the operator group as (cid:110) 演算子群を定義する (第110回) 0.69
Hcirc := † ˆU (θ)Πj ˆU (θ) Hcirc := θ (countable かつ uncountable, 複数形 θs) 0.43
(cid:111) . (出典:111) . 0.56
|θ ∈ Θ (F21) |θ ∈ Θ (F21) 0.47
(F22) (F23) (F22) (F23) 0.47
Suppose that the employed encoding Ansatz ˆU (θ) containing in total Ng gates, each gate ˆui(θ) acting on at most k qudits, and Ngt ≤ Ng gates in ˆU (θ) are trainable. 総 Ng 個のゲートを含む符号化アンザッツ (θ) が、少なくとも k 個のクォーディットに作用する各ゲート sui(θ) と、 θ (θ) 内の Ngt ≤ Ng 個のゲートを訓練可能であると仮定する。 0.75
The -covering number for the operator group Hcirc with respect to the operator-norm distance obeys 作用素群 hcirc に対する作用素-ノルム距離に関する s-covering number は従う 0.61
(cid:18) 7Ngt(cid:107)Πj(cid:107) (出典:18)7Ngt(出典:107)→j(出典:107) 0.44
 (cid:19)d2kNgt  (cid:19)d2kNgt 0.38
, (F24) , (F24) 0.45
英語(論文から抽出)日本語訳スコア
Lemma 10. Define the input state group as B := . 背番号10。 入力状態群を B := と定義する。 0.63
Suppose that the employed quantum circuit ˆU (z) containing in total Nge parameterized gates to load z and each gate ˆui(z) acting on at most k qudits. 合計Ngeパラメタライズドゲートを含む使用量子回路(z)が z をロードし、各ゲート(z) が k 個の四重項に作用することを仮定する。 0.86
The -covering number for B with respect to the operator-norm distance obeys 作用素-ノルム距離に関する b の \-covering number は従う 0.74
19 (F25) (cid:110) ρz := ˆU (z)†(|0(cid:105)(cid:104)0 |) ˆU (z) (cid:18) 7Nge 19 (F25) (cid:110) ρz := >U (z) =(|0(cid:105)(cid:104)0 |) >U (z) (cid:18) 7Nge 0.43
(cid:19)d2kNge (cid:19)d2kNge 0.33
. (cid:12)(cid:12)(cid :12)z ∈ Z . (cid:12)(cid:12)(cid :12)z ∈ Z 0.41
(cid:111) N (B, ,(cid:107) · (cid:107)) ≤ (出典:111) N (B, ..., (cid: 107) · (cid: 107)) ≤ 0.57
 Proof of Lemma 10.  レンマ10の証明。 0.47
The proof is identical to that presented in Lemma 2 of Ref. この証明はRefのLemma 2で示されたものと同じである。 0.66
[70]. We are now ready to prove Lemma 4. [70]. 私たちは今、Lemma 4を証明する準備ができています。 0.41
Proof of Lemma 4. Recall the aim of Lemma 4 is to obtain the upper bound of E(T 2). 補題4の証明。 Lemma 4 の目的は、E(T2) の上界を得ることである。 0.58
In conjunction with Lemmas 6 and 7, we obtain Lemmas 6 と 7 を併用して得られる 0.74
(cid:18) (cid:90) 1 (cid:18) (cid:90)1 0.39
(cid:113) (cid:19) (cid:113) (cid:19) 0.39
E(T 2) ≤ E 2 E(T2) ≤ E 2 0.42
√n − 1 inf α>0 ~n − 1 inf α>0。 0.43
4α + 12 √n − 1 4α + 12 ~n − 1 0.42
α ln(N ((G+)|S , ,(cid:107) · (cid:107)2)d α ln(n ((g+)|s , s, (cid:107) · (cid:107)2) d である。 0.59
, (F26) where G+ = {k(Gθ(z), Gθ(·))|θ ∈ Θ, z ∈ Z} and S denotes the set {z(1), ..., z(n−1)} sampled from the prior distribution PZ , and (G+)|S = {[k(Gθ(z), Gθ(z(i))]i=1:n−1 : θ ∈ Θ, z ∈ Z} denotes the set of vectors formed by the hypothesis with S. In other words, the upper bound of E(T 2) is quantified by the covering number N ((G+)|S , ,(cid:107) · (cid:107)2). , (F26) G+ = {k(Gθ(z), Gθ(·))|θ ∈ s, z ∈ Z} および S は、前の分布 PZ からサンプリングされた集合 {z(1), ..., z(n−1)} を表し、 (G+)|S = {[k(Gθ(z), Gθ(z(i))]i=1:n−1 : θ ∈ s, z ∈ Z} は、S の仮説によって形成されたベクトルの集合を表す。
訳抜け防止モード: , (F26) ここで G+ = { k(Gθ(z ), Gθ(·))|θ ∈ s, z ∈ Z } そして S は、前の分布 PZ からサンプリングされた集合 { z(1 ), ..., z(n−1 ) } を表す。 G+)|S = { [ k(Gθ(z)), Gθ(z(i))]i=1 : n−1 : θ ∈ s, z ∈ Z } は、S の仮説によって形成されたベクトルの集合を表す。 E(T 2 ) の上界は被覆数 N ( ( G+)|S, s, (cid:107 ) · ( cid:107)2 ) で定量化される。
0.61
We next follow the definition of covering number to quantify how N ((G+)|S , ,(cid:107) · (cid:107)2) depends on the structure information of the employed Ansatz and the input quantum states. 次に、n ((g+)|s , s , (cid:107) · (cid:107)2) がどのようにアンサッツと入力量子状態の構造情報に依存するかを定量化する被覆数の定義に従う。 0.68
Denote Q1 as an 1-covering of the set Q1 = {Gθ(z)| θ ∈ Θ} and Q3 as an 3-covering of the set Q = {Gθ(z)|z ∈ Z}. q1 を集合 q1 = {gθ(z)| θ ∈ θ} の 1 個の被覆とし、q3 を集合 q = {gθ(z)|z ∈ z} の 3 個の被覆とする。 0.78
Then, the covering number N ((G+)|S , ,(cid:107)·(cid:107)2) can be upper bounded by N ((Q1)|S , 1,(cid:107) · (cid:107)2) and N ((Q3)|S , 3,(cid:107) · (cid:107)3). すると被覆数 N ((G+)|S , > (cid:107)·(cid:107)2) は、N ((Q1)|S , >1,(cid:107) · (cid:107)2) と N ((Q3)|S , >3,(cid:107) · (cid:107)3) で上界化することができる。 0.79
Mathematically, according to the explicit expression of (G+)|S , we have for any (θ, z) and (θ(cid:48), z(cid:48)) 数学的には、(g+)|s の明示的な表現に従って、任意の (θ, z) と (θ(cid:48), z(cid:48) に対して成り立つ。 0.76
= (cid:13)(cid:13)(cid :13)2 (cid:13)(cid:13)(cid :13)[k(Gθ(z), Gθ(z(i)))]i=1:n−1 − [k(Gθ(cid:48)(z (cid:13)(cid:13)(cid :13)[k(Gθ(z), Gθ(z(i)))]i=1:n−1 − [k(Gθ(cid:48)(z), Gθ(z(i)))]i=1:n−1 + [k(Gθ(cid:48)(z), Gθ(z(i)))]i=1:n−1 (cid:13)(cid:13)(cid :13)2 (cid:13)(cid:13)(cid :13)[k(Gθ(z), Gθ(z(i)))]i=1:n−1 − [k(Gθ(cid:48)(z), Gθ(z(i)))]i=1:n−1 (cid:13)(cid:13)(cid :13)2 (cid:13)(cid:13)(cid :13)[k(Gθ(cid:48)(z), Gθ(z(i)))]i=1:n−1 (cid:13)(cid:13)(cid :13)[k(Gθ(cid:48)(z), Gθ(cid:48)(z(i)))]i=1:n−1 − [k(Gθ(cid:48)(z (cid:13)(cid:13)(cid :13)2 (cid:13)(cid:13)(cid :13)(cid:2)(cid:13)( cid:13)Gθ(cid:48)(z(i)) − Gθ(z(i)) (cid:16)√n − 1 (cid:13)(cid:13)Gθ(cid:48)(z) − Gθ(cid:48)(z (cid:13)(cid:13)(cid :3) + √n − 1 = (cid:13)(cid:13)(cid :13)2 (cid:13)(cid:13)(cid :13)[k(Gθ(z), Gθ(z(i)))]i=1:n−1 − [k(Gθ(cid:48)(z (cid:13)(cid:13)(cid :13)[k(Gθ(z), Gθ(z(i)))]i=1:n−1 − [k(Gθ(cid:48)(z), Gθ(z(i)))]i=1:n−1 + [k(Gθ(cid:48)(z), Gθ(z(i)))]i=1:n−1 (cid:13)(cid:13)(cid :13)2 (cid:13)(cid:13)(cid :13)[k(Gθ(z), Gθ(z(i)))]i=1:n−1 − [k(Gθ(cid:48)(z), Gθ(z(i)))]i=1:n−1 (cid:13)(cid:13)(cid :13)2 (cid:13)(cid:13)(cid :13)[k(Gθ(cid:48)(z), Gθ(z(i)))]i=1:n−1 (cid:13)(cid:13)(cid :13)[k(Gθ(cid:48)(z), Gθ(cid:48)(z(i)))]i=1:n−1 − [k(Gθ(cid:48)(z (cid:13)(cid:13)(cid :13)2 (cid:13)(cid:13)(cid :13)(cid:2)(cid:13)( cid:13)Gθ(cid:48)(z(i)) − Gθ(z(i)) (cid:16)√n − 1 (cid:13)(cid:13)Gθ(cid:48)(z) − Gθ(cid:48)(z (cid:13)(cid:13)(cid :3) + √n − 1 0.43
(cid:13)(cid:13)(cid :13)2 (cid:13)(cid:13)Gθ(z) − Gθ(cid:48)(z) (cid:13)(cid:13) + (cid:13)(cid:13)(cid :13)2 (cid:13)(cid:13)Gθ(z) − Gθ(cid:48)(z) (cid:13)(cid:13) + 0.39
−[k(Gθ(cid:48)(z), Gθ(cid:48)(z(i)))]i=1:n−1 + [k(Gθ(cid:48)(z), Gθ(cid:48)(z(i)))]i=1:n−1 − [k(Gθ(cid:48)(z −[k(Gθ(cid:48)(z), Gθ(cid:48)(z(i)))]i=1:n−1 + [k(Gθ(cid:48)(z), Gθ(cid:48)(z(i)))]i=1:n−1 − [k(Gθ(cid:48)(z(i)))] 0.46
−[k(Gθ(cid:48)(z), Gθ(cid:48)(z(i)))]i=1:n−1 ≤C3 −[k(Gθ(cid:48)(z), Gθ(cid:48)(z(i)))]i=1:n−1 ≤C3 0.47
), Gθ(cid:48)(z(i)))]i=1:n−1 (cid:48) ), Gθ(cid:48)(z(i))]i=1:n−1(cid:48) 0.47
), Gθ(cid:48)(z(i)))]i=1:n−1 ) Gθ(cid:48)(z(i))]i=1:n−1 0.49
), Gθ(cid:48)(z(i)))]i=1:n−1 ) Gθ(cid:48)(z(i))]i=1:n−1 0.49
i=1:n−1 ≤ + i=1:n−1 ≤ + 0.38
+ (cid:48) + (cid:48) 0.41
(cid:48) (cid:48) (cid:48) (cid:48) 0.39
(cid:13)(cid:13)(cid :13)2 (cid:13)(cid:13)(cid :17) (cid:13)(cid:13)(cid :13)2(cid:13)(cid:13 )(cid:17) 0.36
) , (F27) where the first inequality uses the triangle inequality and the last inequality exploits C3-Lipschitz property of the (cid:48) kernel. ) , (F27) 最初の不等式は三角形の不等式を使い、最後の不等式は(cid:48)カーネルのC3-Lipschitz特性を利用する。 0.45
Following the definition of covering number, the above relationship indicates that if for any θ there exists θ 被覆数の定義に従うと、上記の関係は任意の θ に対して θ が存在することを意味する。 0.65
such that(cid:13)(cid:13) Gθ(z) − Gθ(cid:48)(z)(cid:13)( cid:13) ≤ 1 holds for every z, and for any z there exists z(cid:48) such that(cid:13)(cid:13) Gθ(z) − Gθ(z(cid:48))(cid:13)( cid:13) ≤ 3 従って、(cid:13)(cid:13)gθ(z) − gθ(cid:48)(z)(cid:13)( cid:13) ≤は任意の z に対して成立し、任意の z に対して z(cid:48) が存在して(cid:13)(cid:13)gθ(z) − gθ(z(cid:48))(cid:13)( cid:13) ≤ となる。 0.71
holds for every θ, the composition of the covering sets Q1 and Q3 forms the covering set of (G+)|S . すべてのθ に対して、被覆集合 q1 と q3 の合成は (g+)|s の被覆集合を形成する。 0.70
That is, the covering number of (G+)|S is upper bounded by すなわち、(G+)|S の被覆数は上界である。 0.69
N ((G+)|S , C3√n − 1(21 + 3),(cid:107) · (cid:107)2) ≤ N (Q1, 1,(cid:107) · (cid:107)2) × N (Q3, 3,(cid:107) · (cid:107)2). N ((G+)|S , C3-n − 1(2\1 + \3), (cid:107) · (cid:107)2) ≤ N (Q1, >1, (cid:107)) · (cid:107)2) × N (Q3, >3, (cid:107) · (cid:107)2) である。
訳抜け防止モード: n ( ( ( g+)|s, c3\n − 1(2>1 + )3), (cid:107 ) · (cid:107)2 ) ≤ n ( q1,) である。 1,(cid:107 ) · (cid:107)2 ) × n (q3, s3,(cid:107 ) · (cid:107)2 ) 。
0.74
(F28) quantities. In other words, to quantify the -covering of (G+)|S , N (Q1, /(3C3√n − 1),(cid:107) · (cid:107)2) and N (Q3, /(3C3√n − 1),(cid:107) · (cid:107)2), respectively. (F28) 量だ 言い換えると、(g+)|s , n (q1, s/(3c3\n − 1),(cid:107) · (cid:107)2) と n (q3, s/(3c3\n − 1), (cid:107) · (cid:107)2) の s-被覆を定量化する。 0.60
We next separately derive these two The upper bound of N (Q1, /(3C3√n − 1),(cid:107) · (cid:107)2). 次にこの2つを別々に導出する: N の上界 (Q1)/(3C3)n − 1), (cid:107) · (cid:107)2)。 0.74
Let Q4 be an )(cid:107) ≤ q4 を (cid:107) ≤ とする 0.81
√  n−1 -cover of Hcirc in Eq (F23). Eq (F23) における H の被覆。 0.68
Then, for 3C32N √ n−1 for every j with ˆU (θ  ) ∈ Q4. すると、すべての j に対して 3C32N > n−1 に対して θ U (θ > ) ∈ Q4 である。 0.61
3C32N such that (cid:107) ˆU (θ)Πj ˆU (θ) − ˆU (θ 3C32N そのため (cid:107) >U (θ) >j >U (θ) − >U (θ) 0.49
it is equivalent to deriving the upper bound of それは上界を導出することと同値である 0.70
any θ, there exists θ どんなθでも θ が存在します 0.74
)Πj ˆU (θ θ (複数形 θs) 0.58
)Πj ˆU (θ θ (複数形 θs) 0.58
(cid:48) (cid:48) (cid:48) (cid:48) 0.39
(cid:48) (cid:48) (cid:48) (cid:48) 0.39
(cid:48) (cid:48) 0.39
英語(論文から抽出)日本語訳スコア
(cid:13)(cid:13)(cid :13)2 This leads that for any z, we have(cid:13)(cid:13) (cid:13)Gθ(z) − Gθ(cid:48)(z) (cid:13)(cid:13)(cid :13)[Tr( ˆU (θ)Πj ˆU (θ) (cid:13)(cid:13)(cid :13)[(cid:107) ˆU (θ)Πj ˆU (θ) cid:13)(cid:13)(cid: 13)(cid:13)(cid:13)( cid:13)Gθ(z) − Gθ(cid:48)(z) (cid:13)(cid:13)(cid :13)(cid:13)(cid:13) [Tr( shU (θ) (cid:13)(cid:13)(cid :13)(cid:13)[(cid:107) >U (θ) 0.41
= † †  ≤ ≤2N 3C32N√n − 1 3C3√n − 1 = = † †  ≤2n 3c32n'n − 1 3c3'n − 1 = 0.39
 , (cid:48)  , (cid:48) 0.41
ρz) − Tr( ˆU (θ (cid:48) − ˆU (θ )Πj ˆU (θ ρz) − tr(θ(cid:48) − s(θ)πj(θ) 0.41
(cid:48) )Πj ˆU (θ † ) (cid:48) )πj (θ ) である。 0.48
(cid:107)]j=1:2N (cid:107)]j=1:2N 0.29
† (cid:48) † (cid:48) 0.41
) (cid:13)(cid:13)(cid :13)2 ) (cid:13)(cid:13)(cid :13)2 0.40
ρz)]j=1:2N ρz)]j=1:2N 0.29
(cid:13)(cid:13)(cid :13)2 (cid:13)(cid:13)(cid :13)2 0.38
20 (F29) where the first inequality comes from the Cauchy-Schwartz inequality and the second inequality follows the definition of covering number. 20 (F29) 第1の不等式がコーシー=シュワルツ不等式に由来する場合、第2の不等式は被覆数の定義に従う。 0.45
The above observation means that the covering set of N (Q1, /(3C3√n − 1),(cid:107) · (cid:107)2) is independent with z and its √  covering number is upper bound by N (Hcirc, n−1 ,(cid:107) · (cid:107)2). 上記の観察は、N の被覆集合 (Q1) が z と独立であり、その被覆数は N (Hcirc, n−1 , (cid: 107) · (cid: 107)2) で上界となることを意味する。
訳抜け防止モード: 上記の観察は、N(Q1,)の被覆集合であることを意味する。 1, (cid:107 ) · (cid:107)2 ) は z と独立である。 上界は N (Hcirc, Hcirc) である。 n−1, (cid:107 ) · (cid:107)2 )。
0.75
Then, by leveraging the results in Lemma 9, we 3C32N obtain そして lemma 9の結果を利用して 3c32nが得られます 0.69
(cid:18) (cid:19) (cid:18) (cid:19) 0.39
(cid:18)  (cid:18)  0.41
 N Q1, 3C3√n − 1  N Q1 3c3-n − 1 である。 0.39
,(cid:107) · (cid:107)2 The upper bound of N (Q3, /(3C3√n − 1),(cid:107) · (cid:107)2). , (cid:107) · (cid:107)2 上の n の上限 (q3) は、(cid:107) · (cid:107)2) である。 0.82
Let Q5 be an encoding state ρz ∈ B, there exists ρz(cid:48) ∈ Q5 with (cid:107)ρz − ρz(cid:48)(cid:107) ≤ we obtain the following result, i.e., for any θ Q5 を符号化状態 ρz ∈ B とし、(cid:107)ρz − ρz(cid:48)(cid:107) ≤ を持つ ρz(cid:48) ∈ Q5 が存在する。 0.90
3C32N√n − 1 3c32n-n − 1 である。 0.33
,(cid:107) · (cid:107)2 ,(cid:107)·(cid:107)2 0.43
Hcirc, ≤ N Hcirc ≤ n である。 0.37
(cid:48) , (cid:48) , 0.41
√  3C32N √  3C32N 3C32Nは3C32Nである。 0.48
(cid:19)  (cid:19)  0.41
≤ (cid:19)d2kNgt ≤ (cid:19)d2kNgt 0.38
(cid:18) 21C32N√n − 1Ngt(cid:107)Πj(cid:107) n−1 . (cid:18) 21C32N'n − 1Ngt(cid:107) =j(cid:107) n−1 である。 0.51
By expanding the term(cid:13)(cid:13) Gθ(cid:48)(z)− Gθ(cid:48)(z(cid:48))( cid:13)(cid:13), (cid:13)(cid:13) cid:13)(cid:13)gθ(cid:48)(z)−gθ(cid:48)(z(cid:48))( cid:13)(cid:13), (cid:13)(cid:13) 0.39
n−1 -cover of B in Eq (F25). n−1 - Eq (F25) における B の被覆。 0.66
Then, for any )]j=1:2N いずれにしても )]j=1:2N 0.46
(F30) (cid:13)(cid:13) (F30) (cid:13)(cid:13) 0.42
† ) (cid:48) † ) (cid:48) 0.41
. )ρz(cid:48) ˆU (θ . )ρz(cid:48)-u(θ) 0.41
(cid:48) (cid:48) (cid:48) (cid:48) 0.39
(cid:48) (cid:48) (cid:48) (cid:48) 0.39
) (cid:13)(cid:13)Gθ(cid:48)(z) − Gθ(cid:48)(z (cid:13)(cid:13) =(cid:13)(cid:13)[Tr(Πj ˆU (θ =(cid:13)(cid:13)[Tr( ˆU (θ (cid:13)(cid:13)(cid :13) (cid:13)(cid:13)(cid :13)[(cid:13)(cid:13)ρz − ρz(cid:48)(cid:13)(ci d:13)]j=1:2N ) (cid:13)(cid:13)(cid :48)(z) − Gθ(cid:48)(cid:13)(cid :13)(cid:13) = (cid:13)(cid:13)(cid :13)[Tr( >j >U (θ =(cid:13)(cid:13)(cid :13)(cid:13)[Tr( >U (θ (cid:13)(cid:13)(cid :13))(cid:13)(cid:13 )[(cid:13)(cid:13)ρz − ρz(cid:48)(cid:13)]j=1:2N) 0.39
)ρz ˆU (θ (cid:48) Πj ˆU (θ )ρz(θ(cid:48) πj(θ) 0.44
≤ ≤2N 3C32N√n − 1 3C3√n − 1 = ≤2n 3c32n'n − 1 3c3'n − 1 = 0.27
† )   , † ) − Tr(Πj ˆU (θ ) )(ρz − ρz(cid:48)))]j=1:2N † )   , J=1:2N] ρz − ρz(cid:48)) 0.39
(cid:48) (F31) (cid:48) (F31) 0.43
where the first inequality uses Tr(AB) ≤ Tr(A)(cid:107)B(cid: 107) when 0 (cid:22) A and Tr( ˆU (θ )) = Tr(Πj) = 1 for ∀j ∈ [2N ], and the last inequality follows the definition of covering number. 第一の不等式が Tr(AB) ≤ Tr(A)(cid:107)B(cid: 107) であるとき、0 (cid:22) A と Tr( >U (θ )) = Tr(\j) = 1 で、最後の不等式は被覆数の定義に従う。 0.75
The achieved relation means that the covering set of N (Q3, /(3C3√n − 1),(cid:107) · (cid:107)2) does not depend on θ and its covering number is upper bounded by N (B, 達成された関係は、N の被覆集合 (Q3, )/(3C3)n − 1), (cid:107) · (cid:107)2) が θ に依存しず、その被覆数は N (B,2) で上界となることを意味する。
訳抜け防止モード: 達成された関係は N ( Q3) の被覆集合を意味する。 1, (cid:107 ) · (cid:107)2 ) は θ に依存しない。 被覆数は、N (B, ) で上界される。
0.80
n−1 ,(cid:107) · (cid:107)2). n−1 ,(cid:107) · (cid:107)2) である。 0.69
 3C32N−1 3c32n−1 である。 0.26
√ Then, based on the results in Lemma 10, we have √ そして、Lemma 10の結果に基づいて、私たちは 0.56
(cid:48) )†Πj ˆU (θ (cid:48) θ (複数形 θs) 0.49
(cid:48) (cid:18) (cid:48) (cid:18) 0.39
N Q3,  (cid:19) N Q3  (cid:19) 0.41
(cid:18) (cid:19) (cid:18) (cid:19) 0.39
(cid:18) 21C32N√n − 1Nge (出典:18)21C32nnn − 1Nge 0.28
(cid:19)d2kNge (cid:19)d2kNge 0.33
. (F32) Combining Eqs. . (F32) Eqsの組み合わせ。 0.57
(F30) and (F32), the covering number N ((G+)|S , ,(cid:107) · (cid:107)2) in Eqn. (F30) と (F32) は、Eqn の被覆数 N ((G+)|S , (cid:107) · (cid:107)2) である。 0.83
(F28) is upper bounded by  ≤ (f28)上界  ≤ 0.43
B, (cid:1) b・・ (cid:1) 0.54
≤ N ,(cid:107) · (cid:107)2 ≤ n である。 ,(cid:107)·(cid:107)2 0.46
,(cid:107) · (cid:107)2 ,(cid:107)·(cid:107)2 0.43
N ≤N 3C32N√n − 1 N ≤N 3c32n-n − 1 である。 0.39
3C3√n − 1 (cid:0)(G+)|S , ,(cid:107) · (cid:107)2 (cid:18) (cid:19)d2kNgt(cid:1 8) 21C32N√n − 1Nge (cid:19)d2kNge (cid:18) 21C32N√n − 1Ngt(cid:107)Πj(cid:107) 3C32N−1√n − 1 3C32N−1√n − 1 (cid:18) 1 (cid:19)d2k(Nge+Ngt) ≤ =(21C32N√n − 1Ngt)d2kNgt(21C32N√n − 1Nge)d2kNge 3C3-n − 1 (cid:0)(G+)|S , s, (cid:107) · (cid:107) 2 (cid:18) (cid:19) d2kNgt (cid:18) 21C32N n − 1Nge (cid:19) d2kNge (cid:18) 21C32N n − 1Ngt (cid:107) 3C32N−1 n − 1 3C32N−1 n − 1 (cid:18) 1 (cid:19)d2k(Nge+Ngt) ≤ =(21C32N )n − 1Ngt (cid:107) d2k(cid:19) d2k(Nge+Ngt) ≤ =(21C32Nnnn − 1Ngt(cid:107) d2k(cid:107) 0.25
,(cid:107) · (cid:107)2 ,(cid:107)·(cid:107)2 0.43
,(cid:107) · (cid:107)2 ,(cid:107)·(cid:107)2 0.43
Hcirc, × N (cid:19) Hcirc ×N (cid:19) 0.29
(cid:18) (cid:19) (cid:18) (cid:19) 0.39
B,     b・・     0.48
  . (F33)   . (F33) 0.44
英語(論文から抽出)日本語訳スコア
err 翻訳エラー 0.00
英語(論文から抽出)日本語訳スコア
22 FIG. 4: Illustration of QGANs with different Ans¨atze. 22 第4図 異なる ans の qgans のイラスト。 0.47
The left panel presents that both the encoding method and the trainable unitary of QGANs employ the hardware-efficient Ans¨atze. 左パネルでは、符号化法とトレーニング可能なQGANのユニタリの両方が、ハードウェア効率の良いAns satzeを採用している。 0.47
The right panel presents a class of QGANs such that the encoding method uses the hardware-efficient Ans¨atze and the trainable unitary is implemented by the quantum approximate optimization Ans¨atze. 右パネルはqganのクラスを示しており、符号化方法はハードウェア効率のよいans/atzeを使用し、訓練可能なユニタリは量子近似最適化ans/atzeによって実装される。 0.49
Ans¨atze. The mathematical expression of this Ansatz takes the form U (θ) = (cid:81)L に登場。 このアンザッツの数学的表現は U (θ) = (cid:81)L の形を取る 0.54
Quantum approximate optimization Ans¨atze. 量子近似最適化 Ans satze。 0.28
Fig 4 (b) plots the quantum approximate optimization l=1 U (θl), where the l-th layer U (θl) = UB(θl)UC(θl) is implemented by the driven Hamiltonian UB(θl) = ⊗N i) and the target Hamiltonian UC(θl) = exp(−i θl l+1 HC) with HC being a specified Hamiltonian. 図4 (b) は量子近似最適化 l=1 U (θl) をプロットし、l 番目の層 U (θl) = UB(θl)UC(θl) は駆動ハミルトニアン UB(θl) = shN i) と目標ハミルトニアン UC(θl) = exp(−i θl l+1 HC) によって実装される。 0.85
Under this setting, when the encoding unitary is constructed by the hardware-efficient Ansatz and the trainable unitary is realized by the quantum approximate optimization Ansatze, we have k = N , d = 2, Nge = LEN , and Ngt = L(N + 1). この設定の下で、符号化ユニタリがハードウェア効率のアンザッツによって構成され、量子近似最適化により訓練可能なユニタリが実現されると、k = N , d = 2, Nge = LEN , Ngt = L(N + 1) が得られる。 0.78
Based on the above settings, we achieve the generalization error of an N -qubit QGAN with the quantum approximate optimization Ans¨atze, supported by Theorem 2, i.e., with probability at least 1 − δ, 上記の設定に基づいて、少なくとも 1 − δ の確率で Theorem 2 で支えられた量子近似最適化 Ans satze を用いた N-qubit QGAN の一般化誤差を達成する。 0.78
i=1RX (θl 8C 2 i=1RX(θl) 8C 2 0.35
2 (n + m) nm 2(n + m) nm 0.42
ln 1 δ + 48 n − 1 ln 1 δ + 48n − 1 0.42
+ (N + 1)(L + LE) n − 1 + (N + 1)(L + LE)n − 1 0.42
(N ln(1764C 2 (N ln(1764C2) 0.44
3 nLLEN (N + 1)) + 1), 3 nllen (n + 1)) + 1), 0.35
(G2) where C2 = supx k(x, x). (G2) C2 = supx k(x, x) である。 0.67
SM H: More details of numerical simulations sm h: 数値シミュレーションのさらなる詳細 0.71
1. Hyper-para and metrics 1.ハイパーパラとメトリクス 0.78
respectively. RBF kernel. それぞれ。 RBFカーネル。 0.64
The explicit expression of the radial basis function (RBF) kernel is k(x, y) = exp(− σ refers to the bandwidth. 放射基底関数 (RBF) カーネルの明示的な表現は k(x, y) = exp(− σ) である。
訳抜け防止モード: 放射基底関数 ( RBF ) カーネルの明示的な表現は k(x,) である。 y ) = exp(− σ) は帯域幅を表す。
0.82
In all simulations, we set σ−2 as {0.25, 4} for QCBMs and {−0.001, 1, 10} for QGANs, KL divergence. 全てのシミュレーションにおいて、σ−2 を QCBM に対して {0.25, 4} とし、QGAN に対して {−0.001, 1, 10} とする。 0.66
We use the KL divergence to measure the similarity between the generated distribution Pθ and true Pθ(i) log(Q(i)/ Pθ(i)) ∈ [0,∞). 生成した分布 Pθ と true Pθ(i) log(Q(i)/Pθ(i)) ∈ [0,∞) の類似性を測定するために、KL の発散を用いる。 0.87
distribution Q. In the discrete setting, its mathematical expression is KL(Pθ || Q) =(cid:80) In the continuous setting, KL(Pθ || Q) =(cid:82) Pθ(dx) log(Q(dx)/ Pθ(dx))dx ∈ [0,∞). 離散的な設定では、KL(Pθ || Q) =(cid:80) 連続的な設定では、KL(Pθ || Q) =(cid:82) Pθ(dx) log(Q(dx)/Pθ(dx))dx ∈ [0,∞) となる。 0.89
When the two distributions are 2つの分布があるとき 0.75
exactly matched with P = Q, we have KL(P|| Q) = 0. ちょうど P = Q と一致するので、KL(P|| Q) = 0 となる。 0.82
State fidelity. Suppose that the generated state is |Ψ(θ)(cid:105) and the target state is |Ψ∗ (cid:105). 国家の忠実さ 生成状態が |ψ(θ)(cid:105) であり、対象状態が |ψ∗(cid:105) であるとする。 0.63
The state fidelity [84] for pure states is defined as F = |(cid:104)Ψ(θ)|Ψ∗ Optimizer. 純状態に対する状態忠実度 [84] は F = |(cid:104) =(θ)| ∗ Optimizer と定義される。 0.85
For QCBMs, the classical optimizer is assigned as L-BFGS-B algorithm and the tolerance for termination is set as 10−12. QCBMでは、古典的なオプティマイザをL-BFGS-Bアルゴリズムに割り当て、終端に対する耐性を10−12とする。 0.56
For QGANs, the classical optimizer is assigned as Adam with default paramters. QGANでは、古典的なオプティマイザはデフォルトのパラメータを持つAdamに割り当てられる。 0.54
The source code. The QCBM is realized by Python, Numpy, Scipy, Tensorflow, Keras, and QIBO. ソースコード。 QCBMはPython、Numpy、Scipy、Tensorflow、Keras、QIBOによって実現されている。 0.67
We release the source code in Github repository. ソースコードはgithubリポジトリにリリースします。 0.74
), where (cid:105)|2. ) どこで (cid:105)|2。 0.75
||x−y||2 σ2 i |x−y|2 σ2 私は 0.36
Hardware parameters. ハードウェアパラメータ。 0.74
All simulation results in this study are completed by the classical device with Intel(R) この研究のすべてのシミュレーション結果は、intel(r) の古典的デバイスによって完了する。 0.74
Xeon(R) Gold 6267C CPU @ 2.60GHz and 128 GB memory. Xeon(R) Gold 6267C CPU @ 2.60GHz、128GB。 0.91
(cid:114) RC ≤ 8 (cid:114)rc ≤ 8 0.41
144 × 2N(cid:112) 144 × 2n(cid:112) 0.40
UE(z(i))U(✓l)|0iRY(z(i)1)U(✓l1)|0iRY(z(i)2)U(✓l2)|0iRY(z(i)3)U(✓l3)|0iRY(z(i)4)U(✓l4)×𝐿! UE(z(i))U(sl)|0iRY(z(i)1)U(sl1)|0iRY(z(i)2)U(sl2)|0iRY(z(i)3)U(sl3)|0iRY(z(i)4)U(sl4)×L! 0.93
×𝐿×𝐿! ×𝐿UE(z(i))U(✓l)|0iRY(z(i)1)RX(✓l1)UC(✓l+1)|0iRY(z(i)2)RX(✓l2)|0iRY(z(i)3)RX(✓l3)|0iRY(z(i)4)RX(✓l4) ×𝐿×𝐿! ×LUE(z(i))U('l)|0iRY(z(i)1)RX('l+1)|0iRY(z(i)2)RX('l2)|0iRY(z(i)3)RX('l3)|0iRY(z(i)4)RX('l4) 0.37
(a) (b) (a) (b) 0.43
英語(論文から抽出)日本語訳スコア
23 FIG. 5: Generating discrete Gaussian with varied settings of QCBMs. 23 図5: qcbmsの様々な設定で離散ガウスを生成する。 0.57
(a) The simulation results with the varied number samples n (corresponding to x-axis). (a) シミュレーションの結果は、異なる数のサンプルn(x軸に対応する)で表される。 0.79
The upper and lower panels demonstrate the achieved MMD loss for N = 8, 12, respectively. 上部パネルと下部パネルはそれぞれ n = 8, 12 に対して達成された mmd 損失を示す。 0.68
(b) The simulation results of QCBM with N = 12, the quantum kernel, and n → ∞ for the varied circuit depth (corresponding to x-axis). b) QCBMのN = 12、量子核、および(x軸に対応する)様々な回路深さに対するn → ∞のシミュレーション結果。 0.73
The left and right panels separately show the achieved MMD loss and the KL divergence between the generated and the target distributions. 左右のパネルは、得られたMDD損失と、生成した分布と対象分布とのKLばらつきを別々に示す。 0.75
2. More simulation results related to the task of discrete Gaussian approximation 2.離散ガウス近似の課題に関するさらなるシミュレーション結果 0.68
Training loss of QCBMs. QCBMの訓練損失。 0.66
Fig 5 (a) plots the last iteration training loss of QCBMs. 図5 (a)QCBMの最後の反復訓練損失をプロットする。 0.80
All hyper-parameter settings are identical to those introduced in the main text. すべてのハイパーパラメータ設定は、メインテキストで導入された設定と同一である。 0.60
The x-axis stands for the setting of n used to compute MMDU in Eq. x軸は、Eq における MMDU を計算するために使われる n の設定を表す。 0.71
(A2). The simulation results indicate that the performance QCBM with RBM kernel is steadily enhanced with the increased n. (A2)。 シミュレーションの結果, RBMカーネルを用いたQCBMの性能は, n の増加とともに着実に向上していることがわかった。
訳抜け防止モード: (A2)。 シミュレーションの結果は RBMカーネルによる性能QCBMは、nの増加とともに着実に向上する。
0.60
When n → ∞, its performance approaches to the QCBM with quantum kernel. n → ∞ のとき、その性能は量子核を持つ QCBM に近づく。 0.82
These phenomenons accord with Theorem 1. これらの現象は定理1と一致する。 0.56
Effect of circuit depth. We explore the performance of QCBMs with quantum kernels by varying the employed Ansatz. 回路深度の影響 量子カーネルを用いたqcbmsの性能について,アンサッツを用いて検討する。 0.61
Specifically, we consider the case of N = 12 and set L1 in Fig 1 具体的には、図1の N = 12 と集合 L1 の場合を考える。 0.79
(a) as 4, 6, 8, 10. (a)4,6,8,10。 0.33
The collected simulation results are shown in Fig 5 収集したシミュレーション結果を図5に示す。 0.90
(b). In conduction with Fig 1 (b) fig 1 による伝導 0.48
(c), QCBM with L1 = 6 attains the best performance over (c)L1=6のQCBMで最高の性能を得る 0.78
all settings, where the achieved MMD loss is 7 × 10−5 and the KL divergence is 0.03. 達成されたmmdの損失が7×10−5、klの発散が0.03であるすべての設定。 0.66
This observation implies that properly controlling the expressivity of Ansatz, which effects the term C1 in Theorem 1, contributes to improve the learning performance of QCBM. この観察は、 Theorem 1 における C1 という用語に影響を与える Ansatz の表現性を適切に制御することは、QCBM の学習性能の向上に寄与する。 0.68
3. More simulation results related to the task of GHZ state approximation 3.GHZ状態近似の課題に関するさらなるシミュレーション結果 0.71
Approximated states. The approximated GHZ states of QGANs with different random seeds discussed in Fig 3(d) are depicted in Fig 6. 近似状態。 図3(d)で議論された異なるランダムシードを持つQGANの近似GHZ状態を図6に示す。 0.63
Specifically, the difference between the approximated state and the target GHZ state becomes apparent with the decreased number of examples n and the increased number of qubits N . 具体的には、サンプルnの減少と量子ビット数の増加に伴い、近似状態と目標GHZ状態との差が明らかになる。 0.66
These observations echo with the statement of Theorem 1. これらの観測は、Theorem 1の主張と一致する。 0.69
4. More simulation results related to the task of 3D Gaussian approximation 4. 3次元ガウス近似の課題に関するさらなるシミュレーション結果 0.73
Implementation of the modified style-QGANs. 修正スタイルqganの実装。 0.50
Recall the quantum generator adopted Gθ(z) in the modified style-QGANs is exhibited in Fig 3(a). 修正型QGANで採用されたGθ(z)をリコールし、図3(a)に示す。 0.58
Different from the original proposal applying the re-uploading method, the modified quantum generator first uploads the prior example z using U (z) followed by the Ansatz U (θ). 再アップロード法を適用した当初の提案とは異なり、修正量子発生器はまず、U (z) を用いて前の例 z をアップロードし、次に Ansatz U (θ) をアップロードする。 0.68
Such a modification facilitates the analysis of the generalization behavior of QGANs as claimed in Theorem 2. このような修正は、定理2で主張されているQGANの一般化挙動の分析を容易にする。 0.59
The construction details of U (z) and U (θ) are illustrated in Fig 7. U (z) と U (θ) の構成の詳細を図7に示す。 0.75
Particularly, the circuit layout of U (z) and the l-th layer of ˆU (θ) is the same. 特に、u(z) の回路レイアウトとu(θ) の l 番目の層は同じである。 0.67
Mathematically, U (z) = UE(γ4)(⊗3 i=1U (γi)), where U (γi)) = RZ(z3) RY(z2) RZ(z2) RY(z1),∀i ∈ [3] and UE(γ4) = (I2 ⊗ CRY(z2))(CRY(z1) ⊗ I2) refers to the entanglement layer. 数学的には、U (z) = UE(γ4)(\3 i=1U (γi)) であり、U (γi)) = RZ(z3) RY(z2) RZ(z2) RY(z1) と UE(γ4) = (I2 ) CRY(z2))(CRY(z1) はエンタングルメント層を指す。 0.88
Similarly, for the l-th layer of ˆU (θ), its mathematical expression is ˆUl(θ) = UE(γ4)(⊗3 i=1U (γi)), where U (γi)) = RZ(θ3) RY(θ2) RZ(θ2) RY(θ1),∀i ∈ [3]. 同様に、U (θ) の l 番目の層について、その数学的表現は、U (γi)) = RZ(θ3) RY(θ2) RZ(θ2) RY(θ1), y ∈ [3] であり、U (γi)) = RZ(θ3) RY(θ2) RZ(θ2) RY(θ1), y ∈ [3] である。
訳抜け防止モード: 同様に、tU ( θ ) の l - th 層に対しても。 その数学的表現は、Ul(θ ) = UE(γ4)(\3 i=1U ( γi ) )である。 ここで、U ( γi ) ) = RZ(θ3 ) RY(θ2 ) RZ(θ2 ) RY(θ1),\i ∈ [ 3 ] .
0.85
When l is odd, the entanglement layer takes the form UE(γ4) = (I2 ⊗ CRY(θ2))(CRY(θ1) ⊗ I2); otherwise, its implementation is shown in the lower right panel of Fig 7. l が奇数であれば、絡み合い層は UE(γ4) = (I2 > CRY(θ2))(CRY(θ1) > I2 の形を取る。
訳抜け防止モード: l が奇数であれば、絡み合い層は UE(γ4 ) = (I2 ) CRY(θ2))(CRY(θ1 ) > I2 ) の形を取る。 そうでなければ、その実装はFig 7の右下パネルで示される。
0.74
The optimization of the modified style-QGAN follows an iterative manner. 修正されたスタイルQGANの最適化は反復的な方法に従う。 0.56
At each iteration, a classical optimizer leverages the batch gradient descent method to update the trainable parameters θ minimizing MMD loss. 各イテレーションで、古典的なオプティマイザは、バッチ勾配降下法を利用して、mmd損失を最小化するトレーニング可能なパラメータθを更新する。
訳抜け防止モード: 各イテレーションで、古典的なオプティマイザはバッチ勾配降下法を利用する mmd損失を最小化する訓練可能なパラメータθを更新する。
0.58
After T 𝑁=8𝑁=120.0017e-50.0110.01 50.30.032.122.21(𝒂)(𝒂) T以降 n=8n=120.0017e-50.0110.01 50.30.032.122.21(a)( a) 0.44
英語(論文から抽出)日本語訳スコア
24 FIG. 6: The approximated GHZ state with the varied number of qubits. 24 FIG.6: 量子ビット数の異なる近似GHZ状態。 0.51
The label follows the same meaning explained in Fig 3. ラベルは同じ意味を図3に示しています。 0.80
FIG. 7: The implementation detail of the modified style-QGANs. FIG.7: 修正されたスタイルQGANの実装詳細。 0.77
The circuit architecture of U (z) and the l-th layer of ˆU (θ) is identical, which is depicted in the upper right panel. u (z) の回路構造と、u (θ) の l-番目の層は同一であり、右上パネルに描かれている。 0.69
The lower panel plots the construction of the entanglement layer UE(γl). 下部パネルは、絡み合い層UE(γl)の構築をプロットする。 0.71
iterations, the optimized parameters are output as the estimation of the optimal results. 繰り返し、最適化されたパラメータは最適な結果の見積もりとして出力される。 0.69
The Pseudo code of the Pseudo code of the ~ 0.38
𝑁=4Seed 1Seed 2Seed 3Seed 4Seed 5𝑁=6𝑁=8𝑁=10U(z)=U(1)UE(l4)U(2)U(3)UE()=RY()RY()orRY()RY()UE(l)=RY(l1)RY(l2)orRY(l2)RY(l1)U(✓l)=U(l1)UE(l4)U(l2)U(l3)U(✓l)=U(l1)UE(l4)U(l2)U(l3) N=4Seed 1Seed 2Seed 3Seed 4Seed 5N=6N=10U(z)=U(シュ1)UE(シュル4)U(シュ3)U(シュ3)U(シュ)=RY(シュ)RY(シュ)RY(シュ)RY(シュル)=RY(シュル1)RY(シュル2)Rry(シュル2)Lry(シュル)U(シュル)U(シュル)U(シュル)U(シュル)U(シュル)U(シュル)U(シュル)U(シュル)U(シュル)U(シュル)U(シュル)U(シュル3)U(シュル3)U(シュル)U(シュル)U(シュル)U(シュル)U(シュル)U(シュル)U(シュル)U(シュル) 0.43
英語(論文から抽出)日本語訳スコア
25 FIG. 8: The simulation results of QGANs with the varied number of quantum gates. 25 FIG.8: 異なる数の量子ゲートを持つQGANのシミュレーション結果。 0.56
The left panel shows the MMD loss of QGANs during 120 iterations. 左側のパネルは120回のqganのmmd損失を示している。 0.66
The label ‘L = a’ refers to set the block number as L1 = a + 1. ラベル 'L = a' はブロック番号を L1 = a + 1 とする。 0.73
The right panel evaluates the generalization property of trained QGANs by calculating the expected MMD loss. 右側パネルは、予測MD損失を計算することにより、トレーニング済みQGANの一般化特性を評価する。 0.61
The x-axis refers to L. modified style-QGAN is summarized in Alg. x軸はLを指す。 修正スタイルQGANはAlgで要約される。 0.69
1. Algorithm 1: The modified style-QGAN Data: Training set {yi}m Result: Output the optimized parameters. 1. アルゴリズム1: 修正されたstyle-qganデータ: training set {yi}m result: output the optimized parameters。 0.63
1 Randomly divide {y(i)}m 2 Initialize parameters θ; 3 while T > 0 do 4 1 ランダム分割 {y(i)}m 2 初期化パラメータ θ; 3 に対して T > 0 は 4 である。 0.85
i=1, number of examples n, learning rate η, iterations T , MMD loss; i=1,例数n,学習率η,反復T,MD損失 0.33
i=1 into mmini mini batches with batch size b; i=1からmminiミニバッチへのバッチサイズb; 0.79
Regenerate noise inputs {z(i)}n for j ← 1, mmini do Generate {x(i)}n Compute the b’th minibatch’s gradient ∇ MMD2(Pn θ ← θ −η∇ MMD2(Pn 再生雑音入力 {z(i)}n for j s 1, mmini do Generate {x(i)}n b’th minibatch's gradient > MMD2(Pn θ > θ −η > MMD2(Pn) 0.41
i=1 with x(i) = Gθ(z(i)); i=1 で x(i) = gθ(z(i)); 0.88
i=1 every r iterations; i=1 r 反復ごとに; 0.73
θ || Qb) ; θ | | qb) ; 0.95
θ || Qb) ; θ | | qb) ; 0.95
5 6 7 8 9 end T ← T − 1; 5 6 7 8 9 終点 T は T − 1 である。 0.47
10 11 end Code availability. 10 11 終了 コード可用性。 0.69
The source code for conducting all numerical simulations will be available in Github repository すべての数値シミュレーションを実行するソースコードはGithubリポジトリで入手できる。 0.76
https://github.com/y uxuan-du/QGLM-Theory . https://github.com/y uxuan-du/QGLM-Theory 0.17
Simulation results. シミュレーション結果。 0.73
Here we examine how the number of examples m and the number of trainable gates Ng effect the generalization of QGANs. ここでは、実例数 m と訓練可能なゲート数 Ng が QGAN の一般化にどのように影響するかを検討する。 0.63
The experimental setup is identical to those introduced in the main text. 実験的な設定は本文で導入されたものと同一である。 0.70
To attain a varied number of Ng, the circuit depth of Ansatz in Fig 3(a) is set as L = 2, 4, 6, 8. 異なる数のNgを得るには、図3(a)のアンザッツの回路深さをL = 2, 4, 6, 8とする。 0.75
Other hyper-parameters are fixed with T = 800, n = m = 5000, batch size b = 64. 他の超パラメータは T = 800, n = m = 5000, b = 64 で固定される。 0.77
We repeat each setting with 5 times to collect the simulation results. 各設定を5回繰り返し,シミュレーション結果の収集を行った。 0.83
Effect of the number of examples. Let us first focus on the setting L = 2 and m = 5000. 例の数の影響。 まず L = 2 と m = 5000 の設定に焦点をあてる。 0.68
In conjunction with the simulation results in the main text (i.e., L = 2 and m = 2, 10, 200), the simulation results in Fig 8 indicate that an increased number of n and m contribute to a better generalization property. メインテキスト(l = 2 と m = 2, 10, 200)のシミュレーション結果と連動して、fig 8 のシミュレーション結果は n と m の増加がより良い一般化性に寄与することを示している。 0.72
Specifically, at t = 120, the averaged empirical MMD loss (MMDU ) of QGANs is 0.0086, which is comparable with other settings discussed in the main text. 特に t = 120 では、QGAN の平均的経験的MDD損失(MMDU)は 0.0086 であり、本文で議論されている他の設定に匹敵する。 0.70
The averaged expected MMD loss is 0.0045, which is similar to the setting with m = 200. 平均的なMDD損失は0.0045であり、m = 200の設定と似ている。 0.72
In other words, when the number of examples m and n exceeds a certain threshold, the generalization error of QGANs is dominated by other factors instead of m and n. 言い換えれば、例 m と n の数が一定の閾値を超えるとき、QGAN の一般化誤差は m と n の代わりに他の因子によって支配される。 0.82
Effect of the number of trainable gates. We next study how the number of trainable gates effects the generalization error of QGANs. 練習ゲート数の影響 次に,トレーニング可能なゲート数がQGANの一般化誤差に与える影響について検討する。
訳抜け防止モード: 練習ゲート数の影響 次の研究は 訓練可能なゲートの数はQGANの一般化誤差に影響を与える。
0.54
Following the structure of the employed Ansatz shown in Fig 3(a), varying the number of trainable gates amounts to varying the number of blocks L1. 図3(a)に示される使用済みのアンサッツの構造に従って、訓練可能なゲートの数はブロックl1の数に比例する。 0.75
The results of QGANs with varied L1 are illustrated in Fig 8. 異なるL1のQGANの結果を図8に示す。 0.70
For all setting of QGANs, their empirical MMD loss fast converges after 40 iterations. QGANの全ての設定において、その経験的MDD損失は40回の反復後に急速に収束する。 0.53
Nevertheless, their expected MMD loss is distinct, where a larger L1 (or equivalently, a larger number of trainable gates Ng) implies a higher expected MMD loss and leads to a worse generalization. しかし、それらのMDD損失は、より大きなL1(または同等の数のトレーニング可能なゲートNg)がより高いMDD損失を示し、より悪い一般化をもたらす。 0.60
These observations accord with the result of Theorem 2 in the sense that an Ansatz with the overwhelming expressivity may incur a poor generalization ability of QGANs. これらの観測は、圧倒的な表現率を持つアンザッツがQGANの低い一般化能力をもたらすという意味での定理2の結果と一致する。 0.64
SM I: Implications of Theorem 2 from the perspective of potential advantages SM I:潜在的優位性の観点からのTheorem 2の意義 0.87
Here we explore how the results of Theorem 2 contribute to see potential advantages of QGANs. ここでは、Theorem 2の結果がQGANの潜在的な利点にどのように貢献するかを考察する。
訳抜け防止モード: ここではどのようにして Theorem 2の結果はQGANの潜在的な利点に寄与する。
0.67
To do so, we first theoretically formalize the task of parameterized Hamiltonian learning and prove this task is computationally hard for そのため、まずパラメータ化ハミルトン学習のタスクを理論的に定式化し、このタスクが計算的に難しいことを証明する。 0.67
英語(論文から抽出)日本語訳スコア
classical computers. 古典的コンピュータ。 0.81
Then we conduct numerical simulations to apply QGANs to tackle parameterized Hamiltonian learning problems. 次に,パラメータ化ハミルトン学習問題にQGANを適用して数値シミュレーションを行う。 0.77
1. Theoretical analysis Let us first introduce the parameterized Hamiltonian learning problem. 1.理論的分析 まず、パラメータ化ハミルトン学習問題を紹介します。 0.60
Define an N -qubit parameterized Hamiltonian as H(a), where a refers to the interaction parameter sampled from a prior continuous distribution D. For instance, the parameter a can be specified to the strength of the transverse magnetic field and D can be set as the uniform distribution. 例えば、パラメータ a を横磁場の強度に指定することができ、D を均一分布として設定することができる。
訳抜け防止モード: n-量子ビットパラメータ化されたハミルトニアンを h(a ) と定義し、a は事前の連続分布 d からサンプリングされた相互作用パラメータを参照する。 パラメータaは、横磁場の強度とdとを指定できる。 一様分布として設定できる。
0.75
Define |φ(a)(cid:105) as the ground state of H(a). H(a) の基底状態として |φ(a)(cid:105) を定義する。 0.74
The aim of the parameterized Hamiltonian learning is using i=1 to approximate the distribution of the ground states for H(a) with a ∼ D, i.e., m training samples {a(i),|φ(a(i))(cid:105)}m |φ(a)(cid:105) ∼ Q. If a trained QGLM can well approximate Q, then it can prepare the ground state of H(a(cid:48)) for an unseen paramter a(cid:48) ∼ D. This property may contribute to investigating many crucial behaviors in condensed-matter systems. パラメータ化ハミルトン学習の目的は、i=1を用いて H(a) の基底状態の分布を近似することであり、すなわち m のトレーニング標本 {a(i),|φ(a(i))(cid:105)}m |φ(a)(cid:105) > Q である。
訳抜け防止モード: パラメータ化ハミルトン学習の目的は、i=1 を用いて H(a ) の基底状態の分布を D で近似することである。 つまり、m のトレーニングサンプル { a(i),|φ(a(i))(cid:105)}m |φ(a)(cid:105 ) > Q である。 すると、H(a(cid:48 ) ) の基底状態が、目に見えないパラメータ a(cid:48 ) D に対して準備できる。 凝縮された物質系の多くの重要な行動を調べる。
0.70
We note that using QGLM instead of GLM to approximate Q allows certain computational advantages, warranted 我々は GLM の代わりに QGLM を用いて Q を近似すると、ある計算上の利点が保証されることに注意する。 0.58
26 QGLMs but is computationally hard for GLMs. 26 QGLMは計算が難しいが、GLMでは計算が難しい。 0.50
by the following lemma. Lemma 11. 下記の補題による。 背番号11。 0.53
Suppose that Q refers to the distribution of the ground states for parameterized Hamiltonians H(a) with a ∼ D. Under the quantum threshold assumption, there exists a distribution Q that can be efficiently represented by The results of Lemma 11 indicate the superiority of QGLMs over GLMs, i.e., Q ∈ PQ Θ. q がパラメータ化されたハミルトニアンの基底状態 h(a) の量子しきい値仮定の下での分布 q が存在し、補題 11 の結果によって glm 上の qglms の優等性、すなわち q ∈ pq θ が示される。
訳抜け防止モード: Q は、パラメータ化されたハミルトニアン H(a ) に対する基底状態の分布を、量子しきい値の仮定の下で a の D で表すと仮定する。 分布 Q が存在します Lemma 11の結果によって効率よく表現できる GLM 上の QGLMs の優越性を示す。
0.85
In conjunction this salient observation with the definition of generalization, we can conclude that when the number of parameters scales with O(poly(N )), there may exist a certain kernel leading to inf θ∈Θ MMD2(PQ This separation is crucial in quantum machine learning. 一般化の定義と合わせて、パラメータの数が O(poly(N )) とスケールすると、ある核が存在して、ある核が存在して、ある量子機械学習において、この分離は決定的に重要であると結論付けることができる。 0.64
In particular, although both the generalization error RC and RQ are continuously decreased by increasing n and m, the separated expressive power between GLMs and QGMLs means that the MMD loss for GLMs can not converge to zero and fail to exactly learn the target distribution Q. 特に、一般化誤差 RC と RQ は n と m の増加によって連続的に減少するが、GLM と QGML の分離表現力は、GLM の MMD 損失が 0 に収束せず、目標分布 Q を正確に学習できないことを意味する。 0.78
θ || Q) → 0 and inf θ∈Θ MMD2(PC θ || Q) → 0 および inf θ発言 MMD2(PC) 0.84
Θ and Q /∈ PC θ || Q) > 0. シュとQ/のPC θ || Q) > 0。 0.79
2. Proof of Lemma 11 The proof of Lemma 11 is established on the results of quantum random circuits, which is widely believed to be classically computationally hard and in turn can be used to demonstrate quantum advantages on NISQ devices [113, 114]. 2.補題11の証明 Lemma 11 の証明は、古典的に計算が難しいと広く信じられている量子ランダム回路の結果に基づいており、その上で NISQ デバイス [113, 114] 上で量子上の優位性を実証することができる。 0.72
The construction of a random quantum circuit is as follows. ランダム量子回路の構成は次のとおりである。 0.78
Denote H(N, s) as the distribution over the quantum circuit C under 2D-lattice (√N × √N ) structure, where C is composed of s two-qubit gates, each of them is drawn from the 2-qubit Haar random distribution, and s is required to be greater than the number of qubits N . H(N, s) を 2D-格子構造下の量子回路 C 上の分布として記述する: C は s 2-量子ゲートで構成され、それぞれが 2-量子ハール確率分布から引き出され、s は qubit の数 N よりも大きいことが要求される。 0.76
For simplicity, here we choose s = 2N 2 to guarantee the hardness of simulating the distribution H(N, s). 単純性のために、分布 H(N, s) をシミュレートする難しさを保証するために s = 2N 2 を選択する。 0.78
The operating rule for the i-th quantum gate satisfies: 第i量子ゲートの動作規則は次のとおりである。 0.68
• If i ≤ N , the first qubit of the i-th gate is specified to be the i-th qubit and the second is selected randomly from its neighbors; • If i > N , the first qubit is randomly selected from {1, 2, ..., N} and randomly select the second qubit from its neighbors. • i ≤ n の場合、第iゲートの第1キュービットは第iキュービットと指定され、第2キュービットはその隣人からランダムに選択される; • i > n であれば、第1キュービットは {1, 2, ..., n} からランダムに選択され、第2キュービットはその隣人からランダムに選択される。 0.72
Following the same routine, Ref. 同じルーチンに従って、Ref。 0.70
[115] proposed a Heavy Output Generation (HOG) problem detailed below to separate the power between classical and quantum computers on the distribution of the output quantum state after performing [115] 出力量子状態の分布に関する古典的および量子コンピュータ間のパワーを分離するための重出力発生(HOG)問題を提案した。 0.79
a circuit C sampled from H(N, s) on the initial state |0N(cid:105). 初期状態 |0N (cid:105) 上で H(N, s) からサンプリングされる回路 C 。 0.84
Definition 4 (HOG, [115]). 定義 4 (HOG, [115])。 0.30
Given a random quantum circuit C ∼ H(N, s) for s ≥ N 2, generate k binary strings z1, z2,··· , zk in {0, 1}N such that at least 2/3 fraction of zi’s are greater than the median of all probabilities of the circuit outputs C |0N(cid:105). s ≥ n 2 に対してランダム量子回路 c(n, s) が与えられると、k 個の二進文字列 z1, z2,···· , zk が {0, 1}n で生成され、少なくとも 2/3 の zi が c |0n(cid:105) を出力する確率の中央値よりも大きい。 0.82
Concisely, under the quantum threshold assumption, there do not exist classical samples that can spoof the k samples output by a random quantum circuit with success probability at least 0.99 [115]. 簡潔に言うと、量子しきい値仮定の下では、ランダム量子回路によって出力されるkサンプルを少なくとも0.99[115]の確率でスピンオフできる古典的サンプルは存在しない。 0.77
In addition, they prove that quantum computers can solve the HOG problem with high success probability. さらに、量子コンピュータがHOG問題を高い確率で解くことができることを証明している。 0.73
For completeness, we introduce the quantum threshold assumption as follows. 完全性のために、量子しきい値の仮定を以下のように導入する。 0.56
Assumption 1 (quantum threshold assumption, [115]). 仮定1(量子しきい値の仮定、[115]) 0.63
There is no polynomial-time classical algorithm that takes a random quantum circuit C as input with s ≥ N 2 and decides whether 0n is greater than the median of all probabilities s ≥ N 2 の入力としてランダム量子回路 C を取り、0n がすべての確率の中央値よりも大きいかどうかを決定する多項式時間古典アルゴリズムは存在しない。
訳抜け防止モード: s ≥ N 2 の入力としてランダム量子回路 C を取る多項式-時間古典アルゴリズムはない 0nが全ての確率の中央値よりも大きいかどうかを
0.84
of C with success probability 1/2 + Ω(cid:0)2−N(cid:1). 成功確率 1/2 + Ω(cid:0)2−N(cid:1) の C について。 0.65
英語(論文から抽出)日本語訳スコア
27 FIG. 9: Simulation results of QGANs in parameterized Hamiltonian learning. 27 FIG. 9:パラメータ化ハミルトン学習におけるQGANのシミュレーション結果 0.64
The left panel shows the fidelity of the approximated ground states and the exact ground states of Hamiltonian H(a) with varied a. 左パネルは、近似基底状態の忠実度と、異なる a を持つハミルトン H(a) の正確な基底状態を示している。 0.69
The right panel exhibits the estimated and exact ground energies of a class of Hamiltonians H(a). 右パネルはハミルトニアン h(a) のクラスの推定および正確な基底エネルギーを示す。 0.67
We are now ready to prove Lemma 11. レンマ11を 証明する準備が整った 0.56
Proof of Lemma 11. Lemma 11の証明。 0.69
The core idea of the proof is to show that there exists a ground state |φ(θ)(cid:105) of a Hamiltonian H(a), which can be efficiently prepared by quantum computers but is computationally hard for classical algorithms. この証明の中核となる考え方は、量子コンピュータで効率的に準備できるが古典的アルゴリズムでは計算が難しいハミルトン H(a) の基底状態 |φ(θ)(cid:105) が存在することを示すことである。 0.85
To achieve this goal, we connect |φ(θ)(cid:105) with the output state of random quantum circuits. この目的を達成するために、ランダム量子回路の出力状態と |φ(θ)(cid:105) を接続する。 0.80
generated from a random circuit C sampling from H(cid:0)N, 2N 2(cid:1) such that HOG problem on this instance is classically H(cid:0)N, 2N2(cid:1)からランダム回路Cから生成され、このインスタンス上のHOG問題は古典的である。 0.76
With the quantum threshold assumption, Aarsonson and Chen [115] proved that there exists a quantum state |Φ(cid:105) hard, with success probability at least 0.99. aarsonson と chen [115] は量子しきい値の仮定で、量子状態 | φ(cid:105) が硬く、成功確率は少なくとも 0.99 であることを示した。 0.75
Conversely, |Φ(cid:105) can be efficiently prepared by the parameterized quantum circuit ˆU (θ ) whose topology is identical to C. Moreover, due to the fact that quantum adiabatic algorithms with 2-local Hamiltonians can implement universal quantum computational tasks [116], the quantum state |Φ(cid:105) ≡ |φ(a∗)(cid:105) = ˆU (θ We now leverage the above result to design a parameterized Hamiltonian learning task that separates the power of classical and quantum machines. さらに、2-局所ハミルトニアンを持つ量子断熱アルゴリズムが普遍的な量子計算タスク[116]を実装することができるという事実から、量子状態 |φ(cid:105) の | φ(a∗)(cid:105) = su (θ) は、古典的および量子的な機械のパワーを分離するパラメータ化されたハミルトニアン学習タスクを設計するために、上記の結果を利用する。 0.73
In particular, we restrict the target distribution Q as the delta distribution, where ⊗N equals to one and the probability of sampling other ground the probability of sampling |Φ(cid:105) ≡ |φ(a∗)(cid:105) = ˆU (θ states of H(a)(cid:48) with a(cid:48) ∼ D is zero. 特に、ターゲット分布 Q をデルタ分布として制限するが、ここでは >N は 1 と等しく、他の基底をサンプリングする確率は、(cid:105) > |φ(a∗)(cid:105) = >U (θ state of H(a)(cid:48) with a(cid:48) > D は 0 である。 0.79
In this way, the Hamiltonian learning task is reduced to using QGLM or GLM to prepare the quantum state |Φ(cid:105). このようにして、ハミルトニアン学習タスクはQGLMまたはGLMを使用して量子状態 | を準備する(cid:105)。 0.76
This task can be efficiently achieved by QGML but is computationally hard for GLMs. このタスクはQGMLで効率的に実現できるが、GLMでは計算が困難である。 0.69
⊗N must correspond to the ground state of a certain Hamiltonian H(a∗). N は特定のハミルトニアン H(a∗) の基底状態に対応しなければならない。 0.72
(cid:54)= a∗ and a(cid:48) (cid:54)=a∗及びa(cid:48) 0.40
∗ )|0(cid:105) ∗ )|0(cid:105) 0.41
∗ ∗ )|0(cid:105) ∗ ∗ )|0(cid:105) 0.41
3. Numerical simulations 3. 数値シミュレーション 0.80
We apply QGANs introduced in the main text to study the parameterized Hamiltonian learning problem formulated 主文に導入されたqganをパラメータ化ハミルトン学習問題の定式化に応用する。 0.69
in Section I 1. In particular, the parameterized Hamiltonian is specified as the XXZ spin chain, i.e., 第1節に登場。 特に、パラメータ化されたハミルトニアンは XXZ スピンチェインとして指定される。 0.58
N(cid:88) N(cid:88) N(第88回) N(第88回) 0.63
H(a) = (XiXi+1 + YiYi+1 + aZiZi+1) + η H(a) = (XiXi+1 + YiYi+1 + aZiZi+1) +η 0.40
Zi. (I1) i=1 Zi。 (I1) i=1 である。 0.39
i=1 j=1 points from D and calculate the corresponding eigenstates of {H(a(j))}m i=1 である。 j = 1 点 D から {H(a(j))}m の対応する固有状態を計算する 0.56
CNOT(RZ(a)RY(a)) ⊗ (RZ(a)RY(a)). cnot(rz(a)ry(a)) は (rz(a)ry(a)) である。 0.42
The hardware-efficient Ansatz is used to implement U (θ) =(cid:81)L ハードウェア効率の良いAnsatzはU(θ) =(cid:81)Lの実装に使用される 0.66
In all numerical simulations, we set N = 2 and η = 0.25. すべての数値シミュレーションにおいて、N = 2 と η = 0.25 を定める。 0.78
The distribution D for the parameter a is uniform ranging from −0.2 to 0.2. パラメータ a の分布 D は −0.2 から 0.2 まで均一である。 0.85
In the preprocessing stage, to collect m referenced samples {a(j),|φ(a(j))(cid:105)}m j=1, we first uniformly sample {a(j)}m j=1 via the exact diagonalization. 前処理段階では、m が参照するサンプル {a(j),|φ(a(j))(cid:105)}m j=1 を収集するために、まず正対角化によって {a(j)m j=1 を均一にサンプリングする。 0.80
The setup of QGAN is as follows. QGANの設定は以下の通りである。 0.78
The prior distribution PZ is set as D. The encoding unitary is U (a) = l=1 Ul(θ) with Ul(θ) = CNOT(RZ(θl,1)RY(θl,2)) ⊗ (RZ(θl,3)RY(θl,4)). 符号化ユニタリは U (a) = l=1 Ul(θ) であり、Ul(θ) = CNOT(RZ(θl,1)RY(θl,2)) は (RZ(θl,3)RY(θl,4)) である。 0.81
The number of blocks is L = 4. ブロックの数は L = 4 である。 0.87
The number of training and referenced examples is set as n = m = 9. トレーニングと参照例の数を n = m = 9 に設定する。 0.72
The Adagrad optimizer is used to update θ. Adagradオプティマイザはθの更新に使用される。 0.61
The total number of iterations is set as T = 80. イテレーションの総数は t = 80 に設定される。 0.76
We employ 5 different random seeds to collect the statistical results. 統計的結果の収集には 5 種類のランダムシードを用いる。 0.70
To evaluate the performance of the trained QGAN, we apply it to generate in total 41 ground states of H(a) with a ∈ [−0.2, 0.2] and compute the fidelity with the exact ground states. トレーニングされたQGANの性能を評価するため、A ∈ [−0.2, 0.2] でH(a) の41個の基底状態を生成し、正確な基底状態で忠実度を計算する。 0.72
The simulation results are shown in Fig 9. シミュレーション結果は図9に示されています。 0.83
Specifically, for all settings of a, the fidelity between the approximated ground state output by QGANs and the exact ground state is above 0.97. 特に、a のすべての設定において、qgans が出力する近似基底状態と正確な基底状態との忠実度は 0.97 以上である。
訳抜け防止モード: 特に、a のすべての設定において、qgans が出力する近似基底状態間の忠実性 正確な基底状態は 0.97 以上です
0.74
Moreover, when a ∈ [−0.06, 0.06], the さらに、a ∈ [−0.06, 0.06] の場合、 0.79
英語(論文から抽出)日本語訳スコア
fidelity is near to 1. The right panel depicts the estimated ground energy using the output of QGANs, where the maximum estimation error is 0.125 when a = 0.2. 忠実度は1に近い。 右パネルはqganの出力を用いて推定された地上エネルギーを表しており、a = 0.2 の場合の最大推定誤差は 0.125 である。 0.67
These observations verify the ability of QGANs in estimating the ground states of parameterized Hamiltonians. これらの観測は、パラメータ化ハミルトンの基底状態の推定におけるQGANの能力を検証する。 0.66
28 28 0.42
                                                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。