論文の概要: Online calibration scheme for training restricted Boltzmann machines
with quantum annealing
- arxiv url: http://arxiv.org/abs/2307.09785v1
- Date: Wed, 19 Jul 2023 07:07:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 15:05:00.203483
- Title: Online calibration scheme for training restricted Boltzmann machines
with quantum annealing
- Title(参考訳): 量子アニールを用いた制限ボルツマンマシンのオンライン校正法
- Authors: Takeru Goto and Masayuki Ohzeki
- Abstract要約: そこで本研究では,D波量子アニーラーの内部パラメータを校正し,よく近似されたサンプルを得る手法を提案する。
得られたサンプルのKullback-Leibler分散を古典的なギブズサンプリングと比較することにより,提案手法の性能を評価する。
- 参考スコア(独自算出の注目度): 1.14219428942199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a scheme for calibrating the D-Wave quantum annealer's internal
parameters to obtain well-approximated samples to train a restricted Boltzmann
machine (RBM). Empirically, samples from the quantum annealer obey the
Boltzmann distribution, making them suitable for RBM training. However, it is
hard to obtain appropriate samples without compensation. Existing research
often estimates internal parameters, such as the inverse temperature, for
compensation. Our scheme utilizes samples for RBM training to estimate the
internal parameters, enabling it to train a model simultaneously. Furthermore,
we consider additional parameters beyond inverse temperature and demonstrate
that they contribute to improving sample quality. We evaluate the performance
of our scheme by comparing the Kullback-Leibler divergence of the obtained
samples with classical Gibbs sampling. Our results indicate that our proposed
scheme demonstrates performance on par with Gibbs sampling. In addition, the
training results with our estimation scheme are better than those of the
Contrastive Divergence algorithm, known as a standard training algorithm for
RBM.
- Abstract(参考訳): 制限ボルツマン機械(rbm)を訓練するために, d波量子アニーラーの内部パラメータを校正して近似サンプルを得る手法を提案する。
経験的に、量子アニールラーからのサンプルはボルツマン分布に従っており、RBM訓練に適している。
しかし、補償なしで適切なサンプルを得るのは難しい。
既存の研究はしばしば補償のために逆温度などの内部パラメータを推定する。
提案手法では, RBM トレーニングのサンプルを用いて内部パラメータを推定し, 同時にモデルを訓練する。
さらに, 逆温度以外のパラメータも考慮し, 試料品質の向上に寄与することを示す。
得られたサンプルのKullback-Leibler分散を古典的なギブズサンプリングと比較することにより,提案手法の性能を評価する。
提案手法は,ギブスサンプリングと同等の性能を示すことを示す。
さらに,RBMの標準トレーニングアルゴリズムとして知られるContrastive Divergenceアルゴリズムよりも,提案手法によるトレーニング結果が優れている。
関連論文リスト
- Iterated Denoising Energy Matching for Sampling from Boltzmann Densities [109.23137009609519]
反復Denoising Energy Matching (iDEM)
iDEMは,拡散型サンプリング装置から高モデル密度のサンプリング領域を (I) 交換し, (II) それらのサンプルをマッチング目的に使用した。
提案手法は,全測定値の最先端性能を達成し,2~5倍の速さでトレーニングを行う。
論文 参考訳(メタデータ) (2024-02-09T01:11:23Z) - Sample as You Infer: Predictive Coding With Langevin Dynamics [11.515490109360012]
汎用的な深層生成モデルにおけるパラメータ学習のための新しいアルゴリズムを提案する。
提案手法は,標準変分自動エンコーダトレーニングから得られる性能と超越性を実現するために,標準PCアルゴリズムを改良する。
論文 参考訳(メタデータ) (2023-11-22T19:36:47Z) - Entropy-based Training Methods for Scalable Neural Implicit Sampler [15.978655106034113]
非正規化対象分布からの効率的なサンプリングは、科学計算と機械学習の基本的な問題である。
本稿では,これらの制約を克服する,効率的でスケーラブルなニューラル暗黙サンプリング手法を提案する。
提案手法では, 提案手法を応用して, 提案手法を用いることにより, 精度の低い大量のサンプルを生成できる。
論文 参考訳(メタデータ) (2023-06-08T05:56:05Z) - Balanced Training of Energy-Based Models with Adaptive Flow Sampling [13.951904929884618]
エネルギーベースモデル (EBMs) は、非正規化ログ密度を直接パラメータ化する汎用密度推定モデルである。
我々は、異なる種類の生成モデル、正規化フロー(NF)を用いたESMのための新しい最大可能性トレーニングアルゴリズムを提案する。
本手法はトレーニング中にNFをEMMに適合させ,NF支援サンプリング方式によりESMの正確な勾配が常に得られるようにする。
論文 参考訳(メタデータ) (2023-06-01T13:58:06Z) - Sharp Calibrated Gaussian Processes [58.94710279601622]
キャリブレーションされたモデルを設計するための最先端のアプローチは、ガウス過程の後方分散を膨らませることに依存している。
本稿では,バニラガウス過程の後方分散にインスパイアされた計算を用いて,予測量子化を生成するキャリブレーション手法を提案する。
我々のアプローチは合理的な仮定の下で校正されたモデルが得られることを示す。
論文 参考訳(メタデータ) (2023-02-23T12:17:36Z) - Importance sampling for stochastic quantum simulations [68.8204255655161]
我々は、係数に応じてハミルトン式からサンプリングしてランダムな積公式を構築するqDriftプロトコルを導入する。
サンプリング段階における個別のシミュレーションコストを考慮し、同じ精度でシミュレーションコストを削減可能であることを示す。
格子核効果場理論を用いて数値シミュレーションを行った結果, 実験結果が得られた。
論文 参考訳(メタデータ) (2022-12-12T15:06:32Z) - Learning a Restricted Boltzmann Machine using biased Monte Carlo
sampling [0.6554326244334867]
マルコフ・チェイン・モンテカルロによる平衡分布のサンプリングはバイアスサンプリング法により劇的に加速できることを示す。
また、このサンプリング手法を用いて、トレーニング中のログライクな勾配の計算を改善することも示している。
論文 参考訳(メタデータ) (2022-06-02T21:29:01Z) - Sample-Efficient Optimisation with Probabilistic Transformer Surrogates [66.98962321504085]
本稿では,ベイズ最適化における最先端確率変換器の適用可能性について検討する。
トレーニング手順と損失定義から生じる2つの欠点を観察し、ブラックボックス最適化のプロキシとして直接デプロイすることを妨げる。
1)非一様分散点を前処理するBO調整トレーニング,2)予測性能を向上させるために最適な定常点をフィルタする新しい近似後正則整定器トレードオフ精度と入力感度を導入する。
論文 参考訳(メタデータ) (2022-05-27T11:13:17Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Unrolling Particles: Unsupervised Learning of Sampling Distributions [102.72972137287728]
粒子フィルタリングは複素系の優れた非線形推定を計算するために用いられる。
粒子フィルタは様々なシナリオにおいて良好な推定値が得られることを示す。
論文 参考訳(メタデータ) (2021-10-06T16:58:34Z) - Training Gaussian Boson Sampling Distributions [0.0]
GBS分布の解析的勾配式を導出し、標準手法を用いてデバイスを訓練することができる。
Kullback-Leibler 分岐や log-likelihood のコスト関数を用いたトレーニングでは、勾配を古典的に計算でき、高速なトレーニングにつながることを示す。
論文 参考訳(メタデータ) (2020-04-09T18:53:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。