論文の概要: Training and Classification using a Restricted Boltzmann Machine on the
D-Wave 2000Q
- arxiv url: http://arxiv.org/abs/2005.03247v1
- Date: Thu, 7 May 2020 04:43:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 22:40:29.817082
- Title: Training and Classification using a Restricted Boltzmann Machine on the
D-Wave 2000Q
- Title(参考訳): D-Wave 2000Q上の制限ボルツマンマシンによる訓練と分類
- Authors: Vivek Dixit, Raja Selvarajan, Muhammad A. Alam, Travis S. Humble, and
Sabre Kais
- Abstract要約: 制限ボルツマンマシンの勾配学習のモデル予測を量子アニールを用いて計算した。
量子アニール器から得られた試料は、CDで訓練されたRBMに似た分類性能で64ビットのバーとストライプのデータセットでRBMをトレーニングするために使用できる。
- 参考スコア(独自算出の注目度): 0.2609784101826761
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Restricted Boltzmann Machine (RBM) is an energy based, undirected graphical
model. It is commonly used for unsupervised and supervised machine learning.
Typically, RBM is trained using contrastive divergence (CD). However, training
with CD is slow and does not estimate exact gradient of log-likelihood cost
function. In this work, the model expectation of gradient learning for RBM has
been calculated using a quantum annealer (D-Wave 2000Q), which is much faster
than Markov chain Monte Carlo (MCMC) used in CD. Training and classification
results are compared with CD. The classification accuracy results indicate
similar performance of both methods. Image reconstruction as well as
log-likelihood calculations are used to compare the performance of quantum and
classical algorithms for RBM training. It is shown that the samples obtained
from quantum annealer can be used to train a RBM on a 64-bit `bars and stripes'
data set with classification performance similar to a RBM trained with CD.
Though training based on CD showed improved learning performance, training
using a quantum annealer eliminates computationally expensive MCMC steps of CD.
- Abstract(参考訳): Restricted Boltzmann Machine (RBM) はエネルギーベースで非方向性のグラフィカルモデルである。
教師なしの機械学習や教師なしの機械学習によく用いられる。
通常、RBMはコントラスト分岐(CD)を用いて訓練される。
しかし、CDによるトレーニングは遅く、ログライクなコスト関数の正確な勾配を推定しない。
本研究では,cdで使用されるマルコフ連鎖モンテカルロ (mcmc) よりもはるかに高速な量子アニーラ (d-wave 2000q) を用いて,rbm の勾配学習のモデル期待値を算出した。
トレーニングと分類結果はCDと比較される。
分類精度は両手法の類似性能を示す。
RBMトレーニングにおける量子アルゴリズムと古典アルゴリズムのパフォーマンスを比較するために、画像再構成とログライクな計算が用いられる。
量子アニールから得られた試料は、CDで訓練されたRBMに似た分類性能を持つ64ビットの「バー・アンド・ストライプ」データセット上で、RBMのトレーニングに使用できる。
CDに基づくトレーニングでは学習性能が向上したが、量子アニールを用いたトレーニングでは計算コストのかかるCDのMCMCステップが排除される。
関連論文リスト
- Activations and Gradients Compression for Model-Parallel Training [85.99744701008802]
モデル並列分散トレーニングセットアップにおけるアクティベーションと勾配の同時圧縮が収束に与える影響について検討する。
グラデーションはアクティベーションよりも軽度な圧縮速度を必要とする。
実験では、TopKでトレーニングされたモデルが、推論中に圧縮も適用された場合にのみ正常に動作することが示されている。
論文 参考訳(メタデータ) (2024-01-15T15:54:54Z) - Can RBMs be trained with zero step contrastive divergence? [0.0]
一般に、CD-kアルゴリズムは、kステップのマルコフ連鎖モンテカルロアルゴリズムから得られたサンプルを用いて、モデル分布の平均を推定する。
本報告では、k=0でRBMを訓練するために、CDの修正版を用いた簡単な近似サンプリングアルゴリズムを利用できるかを検討する。
論文 参考訳(メタデータ) (2022-11-03T23:03:11Z) - EBMs vs. CL: Exploring Self-Supervised Visual Pretraining for Visual
Question Answering [53.40635559899501]
クリーンで多様なラベル付きデータは、視覚的質問応答(VQA)のような複雑なタスクのモデルをトレーニングするための主要な障害である
我々は、ラベルのない画像を利用してモデルを事前訓練するための自己教師付き手法をレビューし、評価し、それをカスタムVQAタスクで微調整する。
EBMもCLもラベルのない画像から表現を学習でき、非常に少ない注釈付きデータでVQAモデルをトレーニングできることがわかった。
論文 参考訳(メタデータ) (2022-06-29T01:44:23Z) - An Empirical Analysis of Recurrent Learning Algorithms In Neural Lossy
Image Compression Systems [73.48927855855219]
近年のディープラーニングの進歩により、JPEGとJPEG 2000を標準のKodakベンチマークで上回る画像圧縮アルゴリズムが実現している。
本稿では,最近の最先端ハイブリッドニューラル圧縮アルゴリズムの大規模比較を行う。
論文 参考訳(メタデータ) (2022-01-27T19:47:51Z) - MEST: Accurate and Fast Memory-Economic Sparse Training Framework on the
Edge [72.16021611888165]
本稿では,エッジデバイス上での高精度かつ高速な実行を目的とした,メモリ・エコノミクス・スパース・トレーニング(MEST)フレームワークを提案する。
提案されているMESTフレームワークは、Elastic Mutation (EM)とSoft Memory Bound (&S)による拡張で構成されている。
以上の結果から,スペーサマスクの動的探索においても,忘れられない例をその場で特定できることが示唆された。
論文 参考訳(メタデータ) (2021-10-26T21:15:17Z) - Mode-Assisted Joint Training of Deep Boltzmann Machines [10.292439652458157]
モード支援トレーニングのパフォーマンス向上は,DBMにとってさらに劇的であることを示す。
モードアシストアルゴリズムと共同で訓練されたDBMは、パラメータの桁数が桁違い低い同じデータセットを表現できる。
論文 参考訳(メタデータ) (2021-02-17T04:03:30Z) - Learning Gaussian-Bernoulli RBMs using Difference of Convex Functions
Optimization [0.9137554315375919]
GB-RBMの負の対数類似性は凸関数の差として表せることを示す。
GB-RBMを学習するための凸関数プログラミング(S-DCP)アルゴリズムの違いを提案する。
S-DCPは学習速度および学習した生成モデルの品質の点でCDおよびPCDアルゴリズムよりも優れていることが観察されている。
論文 参考訳(メタデータ) (2021-02-11T19:15:54Z) - Training a quantum annealing based restricted Boltzmann machine on
cybersecurity data [0.23453441553817037]
量子コンピュータを用いた実世界のアプリケーションを提案する。
具体的には、サイバーセキュリティアプリケーションにQAを用いてRBMをトレーニングする。
QAとCDで訓練したRBMの両方が有用な合成データを生成することができることを示す。
論文 参考訳(メタデータ) (2020-11-24T21:18:45Z) - Learning Efficient GANs for Image Translation via Differentiable Masks
and co-Attention Distillation [130.30465659190773]
Generative Adversarial Networks (GAN) は画像翻訳において広く利用されているが、その高い計算とストレージコストがモバイルデバイスへの展開を妨げる。
DMADと呼ばれる新しいGAN圧縮手法を提案する。
実験の結果、DMADはCycleGANのMultiply Accumulate Operations (MAC)を13倍、Pix2Pixを4倍削減し、フルモデルに匹敵する性能を維持することができた。
論文 参考訳(メタデータ) (2020-11-17T02:39:19Z) - Quantum Semantic Learning by Reverse Annealing an Adiabatic Quantum
Computer [0.0]
Boltzmann Machines (RBM) は、画像再構成、パターン分類、教師なし学習への応用を含むニューラルネットワークである。
本稿では,AQC(Adiabatic Quantum Computers)における完全RBMの実現可能性を示す。
RBMの各学習ステップを開始するために,入力データを初期境界条件とする意味量子探索を実装した。
論文 参考訳(メタデータ) (2020-03-25T01:33:33Z) - MACER: Attack-free and Scalable Robust Training via Maximizing Certified
Radius [133.47492985863136]
敵対的トレーニングは、堅牢なモデルを学習する最も一般的な方法の1つだが、通常は攻撃に依存し、コストがかかる。
敵の訓練を使わずに頑健なモデルを学習するMACERアルゴリズムを提案する。
すべてのタスクに対してMACERは、最先端の対人訓練アルゴリズムよりもトレーニング時間が少ない。
論文 参考訳(メタデータ) (2020-01-08T05:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。