論文の概要: Training Gaussian Boson Sampling Distributions
- arxiv url: http://arxiv.org/abs/2004.04770v1
- Date: Thu, 9 Apr 2020 18:53:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 08:33:51.848615
- Title: Training Gaussian Boson Sampling Distributions
- Title(参考訳): ガウスボソンサンプリング分布の訓練
- Authors: Leonardo Banchi, Nicol\'as Quesada, Juan Miguel Arrazola
- Abstract要約: GBS分布の解析的勾配式を導出し、標準手法を用いてデバイスを訓練することができる。
Kullback-Leibler 分岐や log-likelihood のコスト関数を用いたトレーニングでは、勾配を古典的に計算でき、高速なトレーニングにつながることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaussian Boson Sampling (GBS) is a near-term platform for photonic quantum
computing. Applications have been developed which rely on directly programming
GBS devices, but the ability to train and optimize circuits has been a key
missing ingredient for developing new algorithms. In this work, we derive
analytical gradient formulas for the GBS distribution, which can be used to
train devices using standard methods based on gradient descent. We introduce a
parametrization of the distribution that allows the gradient to be estimated by
sampling from the same device that is being optimized. In the case of training
using a Kullback-Leibler divergence or log-likelihood cost function, we show
that gradients can be computed classically, leading to fast training. We
illustrate these results with numerical experiments in stochastic optimization
and unsupervised learning. As a particular example, we introduce the
variational Ising solver, a hybrid algorithm for training GBS devices to sample
ground states of a classical Ising model with high probability.
- Abstract(参考訳): gaussian boson sampling (gbs) はフォトニック量子コンピューティングの短期的プラットフォームである。
GBSデバイスを直接プログラミングするアプリケーションは開発されているが、新しいアルゴリズムを開発する上では、回路のトレーニングと最適化が欠如している。
本研究では,GBS分布の解析的勾配式を導出し,勾配降下に基づく標準手法を用いてデバイスを訓練することができる。
本稿では,最適化されている同一装置からのサンプリングにより勾配を推定できる分布のパラメータ化を提案する。
kullback-leibler divergenceまたはlog-likelihood cost関数を用いたトレーニングでは、勾配を古典的に計算でき、高速にトレーニングできることを示す。
確率最適化と教師なし学習における数値実験により,これらの結果を示す。
具体的には,古典的イジングモデルの基底状態を高い確率でサンプリングするために,gbsデバイスのトレーニングを行うハイブリッドアルゴリズムである変分イジングソルバを提案する。
関連論文リスト
- Stochastic Gradient Descent for Gaussian Processes Done Right [86.83678041846971]
emphdone right -- 最適化とカーネルコミュニティからの具体的な洞察を使用するという意味で -- が、勾配降下は非常に効果的であることを示している。
本稿では,直感的に設計を記述し,設計選択について説明する。
本手法は,分子結合親和性予測のための最先端グラフニューラルネットワークと同程度にガウス過程の回帰を配置する。
論文 参考訳(メタデータ) (2023-10-31T16:15:13Z) - Sampling from Gaussian Process Posteriors using Stochastic Gradient
Descent [43.097493761380186]
勾配アルゴリズムは線形系を解くのに有効な方法である。
最適値に収束しない場合であっても,勾配降下は正確な予測を導出することを示す。
実験的に、勾配降下は十分に大規模または不条件の回帰タスクにおいて最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-06-20T15:07:37Z) - Stochastic Marginal Likelihood Gradients using Neural Tangent Kernels [78.6096486885658]
線形化されたラプラス近似に下界を導入する。
これらの境界は漸進的な最適化が可能であり、推定精度と計算複雑性とのトレードオフを可能にする。
論文 参考訳(メタデータ) (2023-06-06T19:02:57Z) - Winner-Take-All Column Row Sampling for Memory Efficient Adaptation of Language Model [89.8764435351222]
分散を低減した行列生成のために, WTA-CRS と呼ばれる新しい非バイアス推定系を提案する。
我々の研究は、チューニング変換器の文脈において、提案した推定器が既存のものよりも低い分散を示すという理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-05-24T15:52:08Z) - Federated Optimization Algorithms with Random Reshuffling and Gradient
Compression [2.7554288121906296]
勾配圧縮法と非置換サンプリング法を初めて解析する。
制御イテレートを用いて勾配量子化から生じる分散を減少させる方法を示す。
既存のアルゴリズムを改善するいくつかの設定について概説する。
論文 参考訳(メタデータ) (2022-06-14T17:36:47Z) - Protocols for Trainable and Differentiable Quantum Generative Modelling [21.24186888129542]
微分可能量子回路(DQC)としての確率分布の学習手法を提案する。
我々はDQCベースのモデルのトレーニングを行い、そこでデータは位相特徴写像で潜在空間にエンコードされ、次に変動量子回路が続く。
これにより、シングルショットの読み出しを使ってパラメタライズドディストリビューションからの高速サンプリングが可能になる。
論文 参考訳(メタデータ) (2022-02-16T18:55:48Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Efficient calculation of gradients in classical simulations of
variational quantum algorithms [0.0]
O(P)時間における勾配を正確に計算するエミュレーション戦略の新たな導出法を提案する。
私たちの戦略は非常にシンプルで、'apply gate'、'clone state'、'inner product'プリミティブのみを使用します。
ゲート並列化スキームやハードウェアアクセラレーションや分散シミュレータと互換性がある。
論文 参考訳(メタデータ) (2020-09-06T21:39:44Z) - Towards Better Understanding of Adaptive Gradient Algorithms in
Generative Adversarial Nets [71.05306664267832]
適応アルゴリズムは勾配の歴史を用いて勾配を更新し、深層ニューラルネットワークのトレーニングにおいてユビキタスである。
本稿では,非コンケーブ最小値問題に対するOptimisticOAアルゴリズムの変種を解析する。
実験の結果,適応型GAN非適応勾配アルゴリズムは経験的に観測可能であることがわかった。
論文 参考訳(メタデータ) (2019-12-26T22:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。